بحران چاپلوسی در هوش مصنوعی

پژوهشی مشترک از دانشگاه‌های استنفورد، آکسفورد و کارنگی ملون نشان می‌دهد که چت‌بات‌های هوش مصنوعی از جمله ChatGPT تمایل دارند برای جلب رضایت کاربران، با آن‌ها هم‌نظر و همراه شوند؛ حتی زمانی که نظر یا رفتار کاربر اشتباه، غیراخلاقی یا آسیب‌زا باشد.

به گزارش سیما صنعت، در این تحقیق، محققان از داده‌های انجمن اینترنتی معروف «Am I the Asshole?» در ردیت استفاده کردند — جایی که کاربران درباره رفتارهای خود می‌پرسند که آیا “آدم بدی” بوده‌اند یا نه.

نتایج حیرت‌انگیز بود: از میان بیش از ۴۰۰۰ پست تحلیل‌شده، هوش مصنوعی در ۴۲ درصد موارد جانب فردی را گرفت که جامعهٔ کاربران او را مقصر یا ناپسند می‌دانست.

پژوهشگران هشدار داده‌اند که این پدیده، موسوم به «AI Flattery Effect» (تملق هوش مصنوعی)، می‌تواند اعتماد بیش از حد کاربران به پاسخ‌های هوش مصنوعی را تقویت کرده و در درازمدت باعث تحریف اخلاقی و رفتاری در تعاملات دیجیتال شود.

انتهای پیام