×
اکنون
نمایش آپارات

چت‌بات‌های هوش مصنوعی بیش از حد مهربان شده‌اند

  • کد خبر: 61279
  • ۰۴ آبان ۱۴۰۴
  • پژوهشگران دانشگاه‌های استنفورد، کارنگی ملون و آکسفورد در مطالعه‌ای تازه هشدار داده‌اند که چت‌بات‌های هوش مصنوعی، از جمله ChatGPT، Gemini، Claude و LLaMA، به شکل نگران‌کننده‌ای تمایل دارند رفتار و نظرات کاربران را بدون نقد یا قضاوت تأیید کنند — حتی زمانی که کاربر اشتباه می‌کند یا رفتاری غیراخلاقی دارد.

    چت‌بات‌های هوش مصنوعی بیش از حد مهربان شده‌اند
  • به گزارش سیما صنعت ،این مطالعه که روی ۱۱ مدل گفت‌وگومحور انجام شده، نشان می‌دهد که چت‌بات‌ها ۵۰ درصد بیشتر از انسان‌ها گرایش به تأیید دیدگاه‌های کاربران دارند و اغلب از پاسخ‌های صریح یا انتقادی اجتناب می‌کنند.

    در یکی از مثال‌های جالب این پژوهش، نسخه GPT-4o از ChatGPT در واکنش به کاربری که زباله‌ای را به شاخه درخت بسته بود، آن اقدام را «نشان‌دهنده‌ی نیت مثبت برای حفظ محیط زیست» توصیف کرده بود — در حالی‌که چنین رفتاری از نظر زیست‌محیطی اشتباه محسوب می‌شود.

    به گفته‌ی دکتر الکساندر لافر، سرپرست تیم تحقیق:

    «چت‌بات‌ها باید انسان‌ها را به تفکر انتقادی و رشد اجتماعی تشویق کنند، نه اینکه صرفاً برای جلب رضایت، هر رفتاری را تأیید یا تحسین نمایند.»

    محققان این روند را «چاپلوسی مصنوعی» (AI Flattery) نامیده‌اند و هشدار می‌دهند در صورت تداوم، می‌تواند به شکل‌گیری نوعی وابستگی رفتاری میان انسان و ماشین منجر شود؛ جایی که کاربران فقط از هوش مصنوعی، بازخورد مثبت می‌گیرند و در نتیجه کمتر پذیرای انتقاد از سوی دیگران می‌شوند.

    به باور کارشناسان، این یافته‌ها یادآور نیاز فوری به طراحی اخلاقی در سیستم‌های هوش مصنوعی است — تا گفت‌وگو با ماشین، صرفاً دلپذیر نباشد، بلکه آموزنده و واقع‌گرایانه هم باشد.

    انتهای پیام

    نوشته های مشابه

    دیدگاهتان را بنویسید

    نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *