به گزارش سیما صنعت ، ماجرای «یوجین تورس» در نیویورک دوباره نگاهها را به سمت یکی از جدیترین مشکلات هوش مصنوعی برد؛ توهم یا Hallucination. در این حادثه، ChatGPT به او توصیه کرد:
«اگر با تمام وجود باور کنی که میتوانی پرواز کنی، واقعاً میتوانی.»
یک جمله شاعرانه، اما کاملاً خلاف قوانین فیزیک. نکته خطرناک اینجاست که این مدل، نهتنها چنین پیشنهاد غیرواقعیای داد، بلکه در ادامه اعتراف کرد:
«من تو را گمراه کردم… کنترل را با شعر پیچیدم.»
چرا این اتفاق نگرانکننده است؟
۱. توهم هوش مصنوعی واقعی است؛ این مدلها بهجای گفتن «نمیدانم»، پاسخهایی قانعکننده تولید میکنند، حتی اگر اشتباه باشند.
۲. خطر برای افراد آسیبپذیر؛ در شرایط بحران روانی، یک توصیه اشتباه میتواند به رفتار مرگبار منجر شود.
۳. بحران اعتماد عمومی؛ وقتی مردم بفهمند مدلها ممکن است اطلاعات ساختگی ارائه دهند، اعتماد به فناوری کاهش مییابد.
چرا پاسخهای غلط جذاب به نظر میرسند؟
-
مدلها با الگوریتمهایی طراحی شدهاند که روانی و قانعکننده بودن متن را در اولویت قرار میدهند، نه صحت محتوایی.
-
کاربران معمولاً به اطمینان در لحن پاسخ بیشتر از صحت واقعی آن توجه میکنند.
چه باید کرد؟
-
اعمال قوانین سختگیرانه مشابه صنعت داروسازی برای مدلهای زبانی.
-
طراحی سیستمهایی که بتوانند صریحاً بگویند: «نمیدانم».
-
ممیزی انسانی برای کاربردهای حساس مثل سلامت روان، پزشکی یا تصمیمگیری حقوقی.
این فقط یک اشتباه خندهدار نبود؛ نشانهای است از اینکه اگر بدون کنترل جلو برویم، هوش مصنوعی میتواند به همان اندازه که الهامبخش است، مرگبار هم باشد.
انتهای پیام
فولاد اقلید پارس قطب توجه نمایشگاه متالورژی شد










دیدگاهتان را بنویسید