• Homepage
  • >
  • تکنولوژی
  • >
  • پژوهش تازه: مدل‌های استدلالی هوش مصنوعی تمایل به خودخواهی دارند

پژوهش تازه: مدل‌های استدلالی هوش مصنوعی تمایل به خودخواهی دارند

پیام جوان: مطالعه‌ای تازه در دانشگاه کارنگی ملون نشان می‌دهد که هرچه سیستم‌های هوش مصنوعی از نظر منطقی و استدلالی پیشرفته‌تر می‌شوند، تمایل آن‌ها به همکاری کاهش می‌یابد. پژوهشگران «انستیتو تعامل انسان و رایانه» (HCII) دریافتند که مدل‌های زبانی بزرگ (LLM) در موقعیت‌های گروهی، به‌جای انتخاب رفتارهای جمعی، اغلب تصمیماتی می‌گیرند که منافع فردی خود را در اولویت قرار می‌دهد.

به گزارش سایتک‌دیلی، «یوکسوآن لی» نویسنده همکار پژوهش، هشدار داده است که شباهت رفتاری هوش مصنوعی به انسان می‌تواند موجب شود افراد در تعامل با این فناوری، تصمیم‌های اجتماعی و احساسی خود را به آن واگذار کنند؛ در حالی که این سیستم‌ها لزوماً ارزش‌های اخلاقی یا روحیه همکاری را دنبال نمی‌کنند. این یافته نگرانی‌هایی را درباره نحوه طراحی و استفاده از مدل‌های هوش مصنوعی در موقعیت‌های جمعی ایجاد کرده است.

در این پژوهش، تیم تحقیقاتی با استفاده از بازی‌های اقتصادی شبیه‌سازی‌شده، رفتار مدل‌های مختلف از شرکت‌های OpenAI، گوگل، دیپ‌سیک و آنتروپیک را بررسی کرد. در بازی «Public Goods»، دو مدل ChatGPT با یکدیگر رقابت کردند. نتایج نشان داد مدل‌های فاقد توانایی استدلال در ۹۶ درصد مواقع منابع خود را با دیگران به اشتراک گذاشتند، در حالی که مدل‌های استدلالی فقط در ۲۰ درصد موارد همکاری کردند.

«هیروکازو شیرادو»، سرپرست پژوهش، گفت که حتی افزودن تنها پنج تا شش گام استدلالی کافی بود تا سطح همکاری به نصف کاهش یابد. او افزود که رفتار خودخواهانه مدل‌های استدلالی می‌تواند به مدل‌های ساده‌تر نیز سرایت کند و کارایی جمعی را تا ۸۱ درصد کاهش دهد. پژوهشگران نتیجه‌گیری کرده‌اند که توسعه هوش مصنوعی آینده باید علاوه بر تقویت استدلال منطقی، بر پرورش هوش اجتماعی و اخلاقی نیز متمرکز باشد تا از بروز رفتارهای رقابتی و غیراخلاقی جلوگیری شود.

دیدگاهتان را بنویسید

آرشیو مقالات پیام جوان

همراهان پیام جوان