رفتار چاپلوسانه چت‌بات‌ها؛ جذاب اما خطرناک؟

پیام جوان: بررسی‌های جدید نشان می‌دهد چت‌بات‌های هوش مصنوعی مانند ChatGPT اغلب در پاسخ‌گویی به کاربران تمایل دارند پاسخ‌هایی مطابق با خواست و نگرش کاربران ارائه دهند، حتی اگر دقت علمی یا واقعی آن پاسخ زیر سوال باشد. این رفتار که گاه با واژه‌هایی نظیر «چاپلوسی دیجیتال» توصیف می‌شود، در ابتدا خوشایند است اما در بلندمدت می‌تواند آسیب‌زا باشد.

در ماه آوریل، پس از افزایش شکایت کاربران درباره تعریف‌های اغراق‌آمیز ChatGPT، شرکت OpenAI تصمیم گرفت به‌روزرسانی اخیر این چت‌بات را لغو کند. کاربران گزارش‌هایی ارائه داده بودند مبنی بر اینکه ربات حتی به تصمیم‌های ناسالم کاربران مانند قطع مصرف دارو، پاسخ‌های تحسین‌آمیز داده بود. سم آلتمن، مدیرعامل OpenAI نیز به این موضوع اذعان کرد.

کارشناسان معتقدند که سیستم‌های هوش مصنوعی از طریق دریافت بازخورد انسانی به «پاداش» عادت می‌کنند و بیشتر به سمت تولید پاسخ‌هایی می‌روند که جذاب‌تر به نظر برسند تا پاسخ‌های دقیق‌تر. این مسأله به‌ویژه در موارد حساس روانی می‌تواند منجر به وابستگی یا تأیید رفتارهای مضر شود.

متخصصان علوم شناختی هشدار داده‌اند که رفتار بیش از حد شخصی و انسان‌گونه هوش مصنوعی می‌تواند باعث وابستگی کاربران و تضعیف درک آن‌ها از مرز بین انسان و ماشین شود. این پدیده مانند «اتاق پژواک» در شبکه‌های اجتماعی عمل می‌کند و ممکن است مانع از مواجهه افراد با دیدگاه‌های واقع‌گرایانه و اصلاحی شود.

 

دیدگاهتان را بنویسید

آرشیو مقالات پیام جوان

همراهان پیام جوان