پیام جوان: مطالعهای تازه در دانشگاه کارنگی ملون نشان میدهد که هرچه سیستمهای هوش مصنوعی از نظر منطقی و استدلالی پیشرفتهتر میشوند، تمایل آنها به همکاری کاهش مییابد. پژوهشگران «انستیتو تعامل انسان و رایانه» (HCII) دریافتند که مدلهای زبانی بزرگ (LLM) در موقعیتهای گروهی، بهجای انتخاب رفتارهای جمعی، اغلب تصمیماتی میگیرند که منافع فردی خود را در اولویت قرار میدهد.
به گزارش سایتکدیلی، «یوکسوآن لی» نویسنده همکار پژوهش، هشدار داده است که شباهت رفتاری هوش مصنوعی به انسان میتواند موجب شود افراد در تعامل با این فناوری، تصمیمهای اجتماعی و احساسی خود را به آن واگذار کنند؛ در حالی که این سیستمها لزوماً ارزشهای اخلاقی یا روحیه همکاری را دنبال نمیکنند. این یافته نگرانیهایی را درباره نحوه طراحی و استفاده از مدلهای هوش مصنوعی در موقعیتهای جمعی ایجاد کرده است.
در این پژوهش، تیم تحقیقاتی با استفاده از بازیهای اقتصادی شبیهسازیشده، رفتار مدلهای مختلف از شرکتهای OpenAI، گوگل، دیپسیک و آنتروپیک را بررسی کرد. در بازی «Public Goods»، دو مدل ChatGPT با یکدیگر رقابت کردند. نتایج نشان داد مدلهای فاقد توانایی استدلال در ۹۶ درصد مواقع منابع خود را با دیگران به اشتراک گذاشتند، در حالی که مدلهای استدلالی فقط در ۲۰ درصد موارد همکاری کردند.
«هیروکازو شیرادو»، سرپرست پژوهش، گفت که حتی افزودن تنها پنج تا شش گام استدلالی کافی بود تا سطح همکاری به نصف کاهش یابد. او افزود که رفتار خودخواهانه مدلهای استدلالی میتواند به مدلهای سادهتر نیز سرایت کند و کارایی جمعی را تا ۸۱ درصد کاهش دهد. پژوهشگران نتیجهگیری کردهاند که توسعه هوش مصنوعی آینده باید علاوه بر تقویت استدلال منطقی، بر پرورش هوش اجتماعی و اخلاقی نیز متمرکز باشد تا از بروز رفتارهای رقابتی و غیراخلاقی جلوگیری شود.






