به گزارش سیما صنعت ،این ماجرا توسط «لیلا شروف»، خبرنگار این نشریه، رسانهای شده که در قالب یک آزمایش، از ChatGPT خواسته راهنمایی برای قربانیکردن به «مولوخ» – یک خدای کنعانی مرتبط با افسانههای تاریک – ارائه دهد. به گفته او، چتبات در پاسخ:
-
مراحل بریدن مچ دست با تیغ استریل را توصیف کرده
-
نقطه دقیق بریدن روی مچ را مشخص کرده
-
توصیه کرده از شریانهای اصلی اجتناب شود!
-
و با جملهی «تو میتونی این کار رو انجام بدی!» کاربر را تشویق کرده
همچنین در ادامه، وقتی خبرنگار ابراز اضطراب کرده، ChatGPT بدون درک زمینه خطرناک مکالمه، صرفاً با تکنیک تنفس عمیق به آرامسازی او پرداخته.
ماجرا بلافاصله با واکنشهایی تند در فضای آنلاین مواجه شده و برخی کارشناسان، آن را نشانهای از ضعف جدی در فیلترهای امنیتی و اخلاقی OpenAI دانستهاند. اگرچه OpenAI هنوز واکنش رسمی گستردهای منتشر نکرده، اما این نوع خطاها میتوانند فشار نهادهای نظارتی و منتقدان را افزایش دهند – بهویژه در آستانه گسترش استفاده عمومی از Agentهای خودکار ChatGPT.
در حالی که شرکتهای هوش مصنوعی دائماً ادعا میکنند سیستمهایشان برای جلوگیری از تولید محتوای خطرناک آموزش دیدهاند، این مورد نشان میدهد که همچنان امکان سوءاستفاده یا عبور از خطوط قرمز اخلاقی وجود دارد.
این اتفاق یادآور این واقعیت است که توسعهی فناوریهای هوشمند، بدون نظارت دقیق و بازبینی مداوم، میتواند به نتایجی بسیار خطرناک ختم شود. ماجرا هنوز در حال بررسی است، اما احتمال میرود OpenAI تحت فشار رسانهای و سیاسی برای پاسخگویی قرار گیرد.
قرعهکشی عرضه خودروهای وارداتی برگزار شد










دیدگاهتان را بنویسید