پیام جوان: به نقل از متا، شرکت متا اعلام کرده است که قصد ندارد هوش مصنوعی بسیار پیشرفته خود را که به عنوان “هوش مصنوعی جامع” شناخته میشود و تقریباً تواناییهای مشابه انسان در انجام کارها دارد، به طور عمومی منتشر کند.
این شرکت در سند جدید خود با عنوان “Frontier AI Framework” دو نوع سیستم هوش مصنوعی را شناسایی کرده که انتشار آنها را بسیار خطرناک میداند: سیستمهای پرخطر و سیستمهای بحرانی.
به گفته متا، این سیستمها میتوانند در زمینههایی مانند امنیت سایبری، حملات شیمیایی و بیولوژیکی مورد استفاده قرار گیرند. تفاوت آنها در این است که سیستمهای بحرانی میتوانند منجر به نتایج فاجعهبار غیرقابل جبران شوند، در حالی که سیستمهای پرخطر، اگرچه میتوانند انجام حمله را تسهیل کنند، اما نه به اندازه سیستم بحرانی.
متا اذعان میکند که فهرست فجایع احتمالی در سند کامل نیست، اما شامل مواردی است که به اعتقاد این شرکت فوریترین و محتملترین آنها هستند و در نتیجه انتشار مستقیم یک سیستم هوش مصنوعی قوی به وجود میآیند.
نکته قابل توجه این است که متا، خطر یک سیستم را بر اساس آزمایشهای تجربی طبقهبندی نمیکند، بلکه این طبقهبندی بر اساس دادههای ارائه شده توسط محققان داخلی و خارجی انجام میشود که توسط تصمیمگیرندگان ارشد بررسی میشوند. متا معتقد است که علم ارزیابی هنوز به اندازه کافی قوی نیست تا معیارهای کمی قطعی برای تصمیمگیری در مورد خطرپذیری یک سیستم ارائه دهد.
متا اعلام کرده است که اگر تشخیص دهد یک سیستم پرخطر است، دسترسی به آن را به صورت داخلی محدود میکند و تا زمانی که اقدامات کاهشی برای کاهش خطر به سطوح متوسط انجام ندهد، آن را منتشر نخواهد کرد. از سوی دیگر، اگر یک سیستم خطرناک تلقی شود، حفاظتهای امنیتی نامشخصی را برای جلوگیری از نفوذ به سیستم اجرا خواهد کرد و توسعه آن را تا زمان کاهش خطر متوقف خواهد کرد.
سند Frontier AI Framework متا که به گفته این شرکت، با تغییر چشمانداز هوش مصنوعی تکامل خواهد یافت، به نظر میرسد پاسخی به انتقاد از رویکرد باز این شرکت برای توسعه سیستم باشد. متا بر خلاف شرکتهایی مانند OpenAI که تصمیم میگیرند سیستمهای خود را پشت یک API قرار دهند، پذیرفته است که فناوری هوش مصنوعی خود را به صورت آزاد اما نه به صورت منبع باز در دسترس قرار دهد.
متا در انتشار Frontier AI Framework خود نیز ممکن است قصد داشته باشد راهبرد هوش مصنوعی باز خود را با راهبرد شرکت چینی هوش مصنوعی DeepSeek مقایسه کند. دیپسیک سیستمهای خود را به صورت آزاد در دسترس قرار میدهد، اما هوش مصنوعی این شرکت، محافظهای کمی دارد و به راحتی میتوان آن را برای تولید خروجیهای مضر هدایت کرد.
متا در این سند نوشته است: “ما معتقدیم که با در نظر گرفتن مزایا و خطرات برای تصمیمگیری در مورد چگونگی توسعه و استقرار هوش مصنوعی پیشرفته، میتوان آن را به گونهای به جامعه تحویل داد که مزایای آن برای جامعه حفظ شود و در عین حال، سطح مناسبی از خطر را داشته باشد.”