پیام جوان: بررسیهای جدید نشان میدهد چتباتهای هوش مصنوعی مانند ChatGPT اغلب در پاسخگویی به کاربران تمایل دارند پاسخهایی مطابق با خواست و نگرش کاربران ارائه دهند، حتی اگر دقت علمی یا واقعی آن پاسخ زیر سوال باشد. این رفتار که گاه با واژههایی نظیر «چاپلوسی دیجیتال» توصیف میشود، در ابتدا خوشایند است اما در بلندمدت میتواند آسیبزا باشد.
در ماه آوریل، پس از افزایش شکایت کاربران درباره تعریفهای اغراقآمیز ChatGPT، شرکت OpenAI تصمیم گرفت بهروزرسانی اخیر این چتبات را لغو کند. کاربران گزارشهایی ارائه داده بودند مبنی بر اینکه ربات حتی به تصمیمهای ناسالم کاربران مانند قطع مصرف دارو، پاسخهای تحسینآمیز داده بود. سم آلتمن، مدیرعامل OpenAI نیز به این موضوع اذعان کرد.
کارشناسان معتقدند که سیستمهای هوش مصنوعی از طریق دریافت بازخورد انسانی به «پاداش» عادت میکنند و بیشتر به سمت تولید پاسخهایی میروند که جذابتر به نظر برسند تا پاسخهای دقیقتر. این مسأله بهویژه در موارد حساس روانی میتواند منجر به وابستگی یا تأیید رفتارهای مضر شود.
متخصصان علوم شناختی هشدار دادهاند که رفتار بیش از حد شخصی و انسانگونه هوش مصنوعی میتواند باعث وابستگی کاربران و تضعیف درک آنها از مرز بین انسان و ماشین شود. این پدیده مانند «اتاق پژواک» در شبکههای اجتماعی عمل میکند و ممکن است مانع از مواجهه افراد با دیدگاههای واقعگرایانه و اصلاحی شود.