پیام جوان: به نقل از ایتنا، گوگل با تغییر در اصول هوش مصنوعی خود، برخی از تعهدات پیشین را حذف کرده و سیاستهای جدیدی را جایگزین کرده است. این شرکت که پیشتر اعلام کرده بود هوش مصنوعی را برای سلاحها یا فناوریهای نظارتی طراحی یا مستقر نخواهد کرد، اکنون در نسخه جدید، این محدودیتها را حذف کرده و به «نظارت انسانی مناسب» و «همسویی با حقوق بینالملل» بسنده کرده است.
دمیس حسابیس، مدیرعامل دیپمایند، و جیمز مانیکا، معاون ارشد گوگل، این تغییرات را ناشی از ظهور هوش مصنوعی به عنوان یک فناوری همهمنظوره دانستهاند و تأکید کردهاند که دموکراسی باید در توسعه این فناوری پیشرو باشد.
گوگل اولین بار در سال ۲۰۱۸ اصول هوش مصنوعی خود را پس از جنجالهای مربوط به پروژه ماون منتشر کرد، قراردادی که شامل همکاری این شرکت با وزارت دفاع آمریکا برای تحلیل ویدئوهای پهپادهای نظامی بود. این پروژه اعتراضات گستردهای را در میان کارکنان گوگل برانگیخت و در نهایت منجر به تدوین اصولی شد که اکنون دستخوش تغییر شدهاند.