هل يسبب الذكاء الاصطناعي مشاكل في الأمن السيبراني؟
هل يمكن أن يساهم الذكاء الاصطناعي في اختراق البيانات ويقوم باستغلال نقاط الضعف، وينفذ الهجمات السيبرانية المعقدة بشكل مستقل، مما يشكل تحديًا لممارسات الأمن السيبراني الحالية والمعايير الأخلاقية في تطوير الذكاء الاصطناعي.
تخيل عالمًا لا يستجيب فيه الذكاء الاصطناعي (AI) للاستعلامات أو يقوم بأتمتة المهام الدنيوية فحسب، بل يتنقل عبر الويب ويحدد نقاط الضعف وينفذ الهجمات السيبرانية دون أي تدخل بشري.
هذه ليست رواية خيال علمي ولكنها حقيقة بحث حديث، يحمل عنوان "يمكن لوكلاء LLM اختراق مواقع الويب بشكل مستقل"، ويوضح البحث أن تقنية الذكاء الاصطناعي يعتمدون على نموذج اللغة (LLMs) ليسوا مجرد أدوات ولكنهم قراصنة مستقلون محتملون.
التهديدات السيبرانية
قام الباحثون بتزويد ماجستير إدارة الأعمال بإمكانيات الوصول إلى واجهات برمجة التطبيقات (APIs)، وتصفح الويب الآلي، وتنفيذ التخطيط القائم على الملاحظات، ويتنقل هؤلاء الوكلاء المحسّنون ببراعة عبر الويب، ويحددون نقاط الضعف في تطبيقات الويب ويستغلونها.
وتلك الهجمات، مثل هجمات SQL Union، مُعقدة ومتعددة المراحل. وهي تنطوي على استخراج مخططات قاعدة البيانات، والحصول على المعلومات بناءً على هذه المخططات، ثم الاستفادة من هذه المعلومات لاختراق الأنظمة، وتمثل هذه القدرة على أداء المهام المعقدة بشكل مستقل، دون معرفة مسبقة بنقاط الضعف، تطورًا كبيرًا في التهديدات السيبرانية.
وأحد الاكتشافات المذهلة للدراسة هو ضرورة معالجة سياقات كبيرة من أجل عمليات اختراق ناجحة، حيث أبرز الباحثون أن GPT-4، وهو نموذج مشهور بكفاءته، يتطلب ما يصل إلى 50 إجراءً، بما في ذلك التراجع، لإكمال عمليات اختراق معينة. وهذا يؤكد الدور الهام للسياق في تنفيذ هذه الاختراقات.
الآثار المترتبة على الأمن السيبراني
يدق هذا البحث أجراس الإنذار بشأن تدابير الأمن السيبراني، حيث تتطلب الطبيعة المستقلة لهذه الهجمات التي تعتمد على الذكاء الاصطناعي وإعادة تقييم الممارسات الأمنية الحالية وتنفيذ التدابير الأمنية المتقدمة، ويعد تعزيز النظام وإدخال المصادقة البيومترية من بين الاستراتيجيات المقترحة لحماية الأنظمة من مثل هذه التهديدات السيبرانية المتقدمة.
علاوة على ذلك، تثير الدراسة أسئلة أخلاقية حاسمة حول تطوير واستخدام تقنيات الذكاء الاصطناعي، ومع ازدياد استقلالية أنظمة الذكاء الاصطناعي، تتصاعد احتمالات إساءة استخدامها، مما يحث مجتمع التكنولوجيا والجهات التنظيمية على وضع مبادئ توجيهية صارمة وضمانات ضد الاستخدام الضار للذكاء الاصطناعي.