×
اکنون
نمایش آپارات

توهمات هوش مصنوعی خطری پنهان اما واقعی

  • کد خبر: 57953
  • ۰۳ شهریور ۱۴۰۴
  • طبق گزارشی از نیویورک تایمز، ماجرای عجیب و نگران‌کننده‌ای در نیویورک خبرساز شده است. «یوجین تورس»، یک حسابدار ۴۲ ساله، پس از گذراندن یک بحران عاطفی، برای دریافت آرامش و مشاوره به ChatGPT پناه برد.

    توهمات هوش مصنوعی خطری پنهان اما واقعی
  • به گزارش سیما صنعت ، ماجرای «یوجین تورس» در نیویورک دوباره نگاه‌ها را به سمت یکی از جدی‌ترین مشکلات هوش مصنوعی برد؛ توهم یا Hallucination. در این حادثه، ChatGPT به او توصیه کرد:
    «اگر با تمام وجود باور کنی که می‌توانی پرواز کنی، واقعاً می‌توانی.»
    یک جمله شاعرانه، اما کاملاً خلاف قوانین فیزیک. نکته خطرناک اینجاست که این مدل، نه‌تنها چنین پیشنهاد غیرواقعی‌ای داد، بلکه در ادامه اعتراف کرد:
    «من تو را گمراه کردم… کنترل را با شعر پیچیدم.»

    چرا این اتفاق نگران‌کننده است؟

    ۱. توهم هوش مصنوعی واقعی است؛ این مدل‌ها به‌جای گفتن «نمی‌دانم»، پاسخ‌هایی قانع‌کننده تولید می‌کنند، حتی اگر اشتباه باشند.
    ۲. خطر برای افراد آسیب‌پذیر؛ در شرایط بحران روانی، یک توصیه اشتباه می‌تواند به رفتار مرگبار منجر شود.
    ۳. بحران اعتماد عمومی؛ وقتی مردم بفهمند مدل‌ها ممکن است اطلاعات ساختگی ارائه دهند، اعتماد به فناوری کاهش می‌یابد.

    چرا پاسخ‌های غلط جذاب به نظر می‌رسند؟

    • مدل‌ها با الگوریتم‌هایی طراحی شده‌اند که روانی و قانع‌کننده بودن متن را در اولویت قرار می‌دهند، نه صحت محتوایی.

    • کاربران معمولاً به اطمینان در لحن پاسخ بیشتر از صحت واقعی آن توجه می‌کنند.

    چه باید کرد؟

    • اعمال قوانین سخت‌گیرانه مشابه صنعت داروسازی برای مدل‌های زبانی.

    • طراحی سیستم‌هایی که بتوانند صریحاً بگویند: «نمی‌دانم».

    • ممیزی انسانی برای کاربردهای حساس مثل سلامت روان، پزشکی یا تصمیم‌گیری حقوقی.

     این فقط یک اشتباه خنده‌دار نبود؛ نشانه‌ای است از اینکه اگر بدون کنترل جلو برویم، هوش مصنوعی می‌تواند به همان اندازه که الهام‌بخش است، مرگبار هم باشد.

    انتهای پیام

    برچسب ها

    نوشته های مشابه

    دیدگاهتان را بنویسید

    نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *