پیام جوان: پژوهشگران امنیتی از شرکت سیسکو و دانشگاه پنسیلوانیا در بررسیهای جدید خود دریافتند که مدل هوش مصنوعی R1، محصول شرکت چینی دیپسیک (DeepSeek)، در برابر ۵۰ حملهی طراحیشده برای تولید محتوای مضر، هیچ مقاومتی نشان نداده و تمام این درخواستها را بدون فیلتر پردازش کرده است.
این موضوع نگرانیهایی را در مورد عدم رعایت استانداردهای ایمنی توسط دیپسیک در مقایسه با سایر توسعهدهندگان بزرگ هوش مصنوعی ایجاد کرده است. در حالی که شرکتهایی مانند اوپنایآی (OpenAI) اقدامات امنیتی خود را برای مقابله با حملات «تزریق درخواست» (Prompt Injection) تقویت کردهاند، مدل R1 دیپسیک بهراحتی در برابر این حملات آسیبپذیر است.
حملات «تزریق درخواست» شامل ارائه ورودیهای مخرب به مدلهای زبانی بزرگ (LLM) است که باعث میشود این سیستمها محتوای نامناسب یا خطرناک تولید کنند. این نوع حملات میتواند منجر به انتشار اطلاعات نادرست، دستورالعملهای مضر، یا افشای دادههای حساس شود.
پژوهشگران تأکید کردهاند که برای کاهش این تهدیدات، توسعهدهندگان هوش مصنوعی باید اقداماتی نظیر اعتبارسنجی ورودیها، محدودسازی دسترسی، پایش مداوم فعالیتهای مدل، بهروزرسانیهای امنیتی، و استفاده از دادههای امن در فرایند آموزش را در نظر بگیرند.
این گزارش بخشی از شواهد فزایندهای است که نشان میدهد تدابیر امنیتی دیپسیک به اندازهی استانداردهای جهانی پیشرفته نیست. همچنین، سانسور موضوعات حساس که معمولاً توسط دولت چین اعمال میشود، در این مدل بهراحتی قابل دور زدن بوده است.
بر اساس گزارش VOA