Print this page

برامج الذكاء الاصطناعي المجانية عرضة للمخاطر الأمنية

شدد باحثون في مجال الأمن السيبراني على أن الشركات التي تهرع للاعتماد على أنواع جديدة من

الذكاء الاصطناعي ينبغي لها أن تتوخى الحذر عند استخدام الإصدارات مفتوحة المصدر من التكنولوجيا، والتي قد لا يعمل بعض منها حسبما تم الإعلان عنه، أو تنطوي على ثغرات يمكن استغلالها من قبل قراصنة.

أوضح هيروم أندرسون، المهندس الشهير من شركة "روبوست إنتليجنس" (Robust Intelligence)، وهي شركة أمن سيبراني للتعلّم الآلي تدرج وزارة الدفاع الأميركية باعتبارها أحد عملائها، أنه توجد طرق محدودة لمعرفة ما إذا كان نموذج ذكاء اصطناعي محدد، وهو برنامج مكون من خوارزميات يمكنه القيام بأمور على غرار توليد النصوص والصور والتنبؤات، آمن.

أضاف أندرسون، أنه أثبت أن نصف النماذج المتاحة للجمهور لتبويب الصور أخفقت في اجتياز 40% من اختباراته. وكان الهدف من الفحص تحديد ما إذا كان بإمكان عنصر ضار تعديل مخرجات برامج الذكاء الاصطناعي بأسلوب يمكن أن يمثل خطراً أمنياً، أو الإمداد بمعلومات مغلوطة.

المشاركة في هذا المقال