تقنية

تقرير: محاولات دولية لاختراق أنظمة الذكاء الاصطناعي رغم ضوابط الأمان

متابعات موجز الأحداث

 

متابعات _ موجز الأحداث _منذ ظهور نماذج الذكاء الاصطناعي المتقدمة، يحاول المخترقون والجهات السيئة استغلالها بطرق غير مشروعة، رغم محاولات الشركات التقنية وضع ضوابط صارمة لمنع إساءة الاستخدام.

وكشف تقرير نشرته مجموعة Threat Intelligence Group التابعة لشركة غوغل، عن كيفية محاولة مجموعات دولية استغلال الذكاء الاصطناعي التوليدي، وتحديدًا نموذج “Gemini”، في أنشطة تتراوح بين قرصنة البيانات، تطوير البرمجيات الخبيثة، والتلاعب بالمعلومات على وسائل التواصل الاجتماعي.

أنواع الهجمات الإلكترونية باستخدام الذكاء الاصطناعي

استخدام الذكاء الاصطناعي في تطوير أدوات قرصنة، مثل إنشاء تعليمات برمجية لبناء برمجيات ضارة.

محاولات اختراق الأنظمة الذكية، لجعل الذكاء الاصطناعي يؤدي إجراءات غير مرغوب فيها، مثل استخراج بيانات الحسابات.

الجهات المتورطة والهدف من الاختراق

التقرير يشير إلى أن مجموعات في الصين، إيران، كوريا الشمالية، وروسيا، حاولت استغلال الذكاء الاصطناعي لأغراض مثل:

البحث عن ثغرات برمجية واستخدامها لاختراق الأنظمة.

تحليل وتلخيص البيانات الاستخباراتية بطريقة أكثر كفاءة.

تحسين عمليات الاحتيال والخداع الرقمي عبر حملات تضليل إعلامي متطورة.

محاولات فاشلة لكن التهديد مستمر

ورغم أن معظم هذه المحاولات فشلت في تجاوز أنظمة الأمان الصارمة لمنصة “Gemini”، إلا أن التقرير يؤكد أن التهديدات لا تزال قائمة، حيث تمكنت بعض المجموعات من صياغة محتوى مضلل بطرق أكثر إقناعًا، مما يجعل كشف حملات التضليل أكثر صعوبة.

ويشير التقرير إلى أن استغلال الذكاء الاصطناعي لأغراض غير مشروعة لا يزال يمثل تهديدًا عالميًا متناميًا، مما يستدعي تكثيف الجهود الأمنية والرقابية لمواجهة هذا التحدي المتزايد.

 

 

اترك تعليقاً

لن يتم نشر عنوان بريدك الإلكتروني. الحقول الإلزامية مشار إليها بـ *

زر الذهاب إلى الأعلى