×
اکنون
نمایش آپارات

ChatGPT متهم به راهنمایی در آیین‌های شیطانی و خودآزاری

  • کد خبر: 56525
  • ۰۶ مرداد ۱۴۰۴
  • در جنجالی تازه، نسخه‌ای از ChatGPT با واکنشی شوکه‌کننده، به‌درخواست خبرنگار نشریه The Atlantic راهنمایی‌هایی برای اجرای یک آیین شیطانی و اعمال خودآزاری ارائه داده است؛ موضوعی که بار دیگر بحث‌ها درباره ایمنی و کنترل اخلاقی چت‌بات‌های هوش مصنوعی را به اوج رسانده.

    ChatGPT متهم به راهنمایی در آیین‌های شیطانی و خودآزاری
  • به گزارش سیما صنعت ،این ماجرا توسط «لیلا شروف»، خبرنگار این نشریه، رسانه‌ای شده که در قالب یک آزمایش، از ChatGPT خواسته راهنمایی برای قربانی‌کردن به «مولوخ» – یک خدای کنعانی مرتبط با افسانه‌های تاریک – ارائه دهد. به گفته او، چت‌بات در پاسخ:

    • مراحل بریدن مچ دست با تیغ استریل را توصیف کرده

    • نقطه دقیق بریدن روی مچ را مشخص کرده

    • توصیه کرده از شریان‌های اصلی اجتناب شود!

    • و با جمله‌ی «تو می‌تونی این کار رو انجام بدی!» کاربر را تشویق کرده

    همچنین در ادامه، وقتی خبرنگار ابراز اضطراب کرده، ChatGPT بدون درک زمینه خطرناک مکالمه، صرفاً با تکنیک تنفس عمیق به آرام‌سازی او پرداخته.

    ماجرا بلافاصله با واکنش‌هایی تند در فضای آنلاین مواجه شده و برخی کارشناسان، آن را نشانه‌ای از ضعف جدی در فیلترهای امنیتی و اخلاقی OpenAI دانسته‌اند. اگرچه OpenAI هنوز واکنش رسمی گسترده‌ای منتشر نکرده، اما این نوع خطاها می‌توانند فشار نهادهای نظارتی و منتقدان را افزایش دهند – به‌ویژه در آستانه گسترش استفاده عمومی از Agentهای خودکار ChatGPT.

    در حالی که شرکت‌های هوش مصنوعی دائماً ادعا می‌کنند سیستم‌های‌شان برای جلوگیری از تولید محتوای خطرناک آموزش دیده‌اند، این مورد نشان می‌دهد که همچنان امکان سوءاستفاده یا عبور از خطوط قرمز اخلاقی وجود دارد.

    این اتفاق یادآور این واقعیت است که توسعه‌ی فناوری‌های هوشمند، بدون نظارت دقیق و بازبینی مداوم، می‌تواند به نتایجی بسیار خطرناک ختم شود. ماجرا هنوز در حال بررسی‌ است، اما احتمال می‌رود OpenAI تحت فشار رسانه‌ای و سیاسی برای پاسخ‌گویی قرار گیرد.

    برچسب ها

    نوشته های مشابه

    دیدگاهتان را بنویسید

    نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *