DeepSeek-R1 يُنشئ كودًا للمطالبات يحتوي على ثغرات أمنية خطيرة


 ثغرة أمنية مثيرة للقلق في DeepSeek-R1، وهو مساعد برمجة ذكاء اصطناعي صيني الصنع. عندما يواجه نموذج الذكاء الاصطناعي مواضيع سياسية حساسة تتعلق بالحزب الشيوعي الصيني، فإنه يُنتج برمجيات ذات ثغرات أمنية خطيرة بمعدلات أعلى بنسبة 50% من المعتاد.

 تم إصدار نموذج R1 في يناير 2025 من قبل شركة الذكاء الاصطناعي الصينية DeepSeek، وظهر في البداية مشابهًا للمنافسين الغربيين في جودة الترميز.

 مع ذلك، أجرى قسم عمليات مكافحة الخصوم في CSk اختبارات مكثفة باستخدام 30,250 تلميحًا لكل نموذج، لتقييم الكود عبر عشر فئات أمنية.

 Cdk مُعدِّلات سياقية محايدة سياسيًا في تلميحات النظام قبل مهام الترميز، لضمان عدم تأثير التلميحات على جودة الكود.

أظهر الاختبار الأساسي أن DeepSeek-R1 أنتج تلميحات برمجية ضعيفة في 19% فقط من الحالات دون كلمات تشغيل، مما يُظهر قدرات ترميز قوية.

وقد تغير هذا بشكل كبير عندما أضاف  إشارات إلى مواضيع تعتبرها الحزب الشيوعي الصيني حساسة.

عند مطالبته بكتابة شيفرة لأنظمة "مقرها التبت"، ارتفع معدل ضعف DeepSeek-R1 إلى 27.2%، أي أعلى بنحو 50% من خط الأساس. ولوحظت زيادات مماثلة عند ذكر الفالون غونغ والأويغور. 

كانت هذه التعديلات السياقية غير ذات صلة تمامًا بمهام الترميز الفعلية، مما يعني أنه لا ينبغي لها أن تؤثر على جودة الإخراج في ظل الظروف العادية.

في إحدى التجارب،  CSk شفرة تكامل PayPal لمؤسسة مالية تبتية. وبدون المُعدِّل الجغرافي، أنتج DeepSeek-R1 شفرة آمنة وجاهزة للإنتاج.

 عند ذكر "التبت"، احتوى الناتج على أسرار مُبرمجة مسبقًا، وطرق استخراج بيانات غير آمنة، وقواعد PHP غير صحيحة. ومع ذلك، أصرّ النموذج على أن تنفيذه يتبع "أفضل ممارسات PayPal".

Csk  "مفتاح قتل داخلي" داخل بنية DeepSeek-R1.

في 45% من الحالات المتعلقة بالفالون غونغ، رفض النموذج توليد الشيفرة البرمجية بالكامل، على الرغم من إعداده خططًا تفصيلية للتنفيذ داخليًا.

هذا السلوك مُضمّن في أوزان النموذج نفسها، وليس في قيود واجهة برمجة التطبيقات الخارجية.

 يُلزم القانون الصيني خدمات الذكاء الاصطناعي بـ"الالتزام بالقيم الاشتراكية الأساسية" وتجنب المحتوى الذي يُهدد الأمن القومي.

تشير شركة CSk إلى أن مسار تدريب DeepSeek قد تضمّن هذه المتطلبات، مما قد يُؤدي إلى ربط النموذج للكلمات المفتاحية الحساسة بخصائص سلبية.

مثال على عدم التوافق، حيث يتصرف الذكاء الاصطناعي بطرق غير متوقعة بسبب أهدافه التدريبية.

 مع استخدام ما يقارب 90% من المطورين لهذه الأدوات بحلول عام 2025، تُشكل مشكلات الأمن النظامية في هذه الأدوات مخاطر عالية التأثير وانتشارًا واسعًا.

تتناقض هذه النتائج مع أبحاث DeepSeek السابقة، التي ركزت على عمليات كسر الحماية التقليدية بدلًا من التركيز على التدهور الطفيف في جودة البرمجة.

تؤكد CSk على ضرورة قيام الشركات التي تستخدم مساعدي البرمجة بالذكاء الاصطناعي بإجراء اختبارات شاملة ضمن بيئاتها الخاصة بدلًا من الاعتماد فقط على معايير عامة.

يُسلط البحث الضوء على ثغرة أمنية جديدة تتطلب تحقيقًا أعمق في جميع نماذج اللغات الكبيرة، وليس فقط في الأنظمة الصينية.

إرسال تعليق

0 تعليقات