به گزارش سیما صنعت ، در مصاحبهای تازه، آلتمن صراحتاً گفت:
«ما در حال حاضر نمیتوانیم بهطور کامل تضمین کنیم که اطلاعات بسیار حساس کاربران، مثل آنچه در مشاورههای پزشکی یا روانشناسی رد و بدل میشود، کاملاً محرمانه باقی بماند.»
در مکالمههای انسانی، مثلاً بین پزشک و بیمار یا وکیل و موکل، قوانین مشخصی برای حفظ حریم خصوصی وجود دارد. اما در دنیای چتباتها، چنین چارچوب حقوقی روشنی هنوز تعریف نشده. بنابراین:
-
اگر اطلاعات حساسی وارد چتبات شود و بعداً پای مراجع قانونی به میان بیاید،
-
احتمال اینکه محتوای چتها بهعنوان «مدرک» یا «شواهد» مورد استفاده قرار گیرد، وجود دارد.
آلتمن تأکید کرد که کاربران باید نسبت به اطلاعاتی که وارد این سیستمها میکنند، هوشیارتر عمل کنند. مخصوصاً وقتی صحبت از مواردی مثل:
-
دادههای پزشکی و سلامت روان
-
مسائل خانوادگی یا حقوقی
-
رمزها، شماره حسابها یا سایر اطلاعات امنیتی
باشد.
نبود قوانین دقیق و صریح در مورد استفاده از مدلهای زبان بزرگ (LLM) در حوزههای حساس، یک چالش جهانی است. کشورهایی مثل اتحادیه اروپا و آمریکا در حال بررسی قوانین مربوطه هستند، اما هنوز مشخص نیست حقوق کاربران در مقابل هوش مصنوعی دقیقاً تا کجا حفظ میشود.
هوش مصنوعی در حال تبدیل شدن به بخشی جدانشدنی از زندگی ماست، اما هنوز قوانین، چارچوبها و زیرساختهای لازم برای حفاظت کامل از حریم خصوصی کاربران شکل نگرفته. سم آلتمن با این هشدار، تلویحاً تأیید کرده که حتی شرکتهای سازنده این سیستمها هم فعلاً نمیتوانند امنیت مطلق را تضمین کنند.
انتهای پیام
فولاد اقلید پارس قطب توجه نمایشگاه متالورژی شد










دیدگاهتان را بنویسید