Article image
مصدر الصورة: أنسبلاش
Article image مصدر الصورة: أنسبلاش

الذكاء الاصطناعي

يمكن استخدام التعلم الآلي والذكاء الاصطناعي في مواجهة الهجمات السيبرانية، ولكن يمكن للقراصنة إبطال مفعول خوارزميات الحماية باستهداف البيانات التي تستخدمها هذه الخوارزميات للتدريب، ودلالات التحذير التي تبحث عنها.

عندما كنت أتمشى في معرض مؤتمر بلاك هات الكبير للأمن السيبراني في لاس فيجاس، صعقت بعدد الشركات التي تتباهى باستخدام التعلم الآلي والذكاء الاصطناعي في المساعدة على زيادة أمان هذا العالم.

ولكن بعض الخبراء يشعرون بالقلق؛ بسبب أن هذه الشركات لا تعير ما يكفي من الاهتمام للمخاطر التي تنتج عن الاعتماد على هذه التقنيات بشكل كبير؛ يقول رافايل مارتي (من الشركة الأمنية فورسبوينت): “إن ما يحدث يثير القلق إلى حد ما، بل يشكل خطورة حقيقية في بعض الأحيان”.

ومن الممكن أن نتفهم تعطُّش قطاع الأمن والحماية إلى الخوارزميات، حيث إنه يواجه موجة عارمة من الهجمات السيبرانية في نفس الوقت الذي يتصاعد فيه عدد الأجهزة المتصلة بالإنترنت إلى درجة كبيرة، وهناك نقص كبير في عدد العاملين المؤهلين في المجال السيبراني من ناحية أخرى.

يمكن استخدام التعلم الآلي والذكاء الاصطناعي في المساعدة على أتمتة عمليات كشف التهديدات والاستجابة لها، مما يخفف العبء على الموظفين، كما يمكن أيضاً أن يزيد من فعالية كشف التهديدات بالمقارنة مع الأساليب البرمجية الأخرى.

أخطار البيانات

يقول مارتي وغيره من المتحدثين في بلاك هات: إن الكثير من الشركات بدأت تطلق منتجات تعتمد على التعلم الآلي، لأنها تشعر بضرورة إثبات وجودها للمستخدمين الذين انجذبوا إلى موجة الذكاء الاصطناعي، وهناك خطر حقيقي من تجاهل الطرق التي يمكن بها لخوارزميات التعلم الآلي أن تعطي إحساساً زائفاً بالحماية.

تتضمن الكثير من المنتجات المطروحة ما يسمى “التعلم تحت الإشراف”؛ حيث يجب على الشركات أن تختار مجموعات البيانات وتضيف إليها المؤشرات المطلوبة، وذلك لتدريب الخوارزميات عليها، وتلقَّم الخوارزمية -على سبيل المثال- بكودين برمجيين؛ يشار إلى أحدهما على أنه خبيث وإلى الآخر على أنه آمن.

ويشير مارتي إلى أحد المخاطر الناجمة عن استعجال الشركات في طرح منتجاتها في الأسواق، وهو أن المعلومات المستخدمة للتدريب لم تخضع لتدقيق شامل بحثاً عن البيانات الشاذة، مما قد يؤدي إلى غفلة الخوارزميات عن بعض أنواع الهجمات، كما توجد مشكلة أخرى في احتمال وصول القراصنة إلى أنظمة شركة الحماية، وتخريب البيانات عن طريق تبديل المؤشرات؛ مما يؤدي إلى الإشارة إلى بعض أمثلة البرامج الخبيثة على أنها برامج آمنة. وفي بعض الأحيان لا يحتاج المخربون حتى إلى التلاعب بالبيانات؛ حيث تكفي دراسة الميزات البرمجية التي يعتمدها النموذج لتحديد البرمجيات الخبيثة، ثم إزالتها من برمجياتهم الخبيثة بحيث لا تتمكن الخوارزميات من كشفها.

واحد في مواجهة الكثيرين

أشار ممثلان من مايكروسوفت (هولي ستيوارت ويوجال باريك) في إحدى جلسات المؤتمر إلى خطر الاعتماد الزائد على خوارزمية واحدة رئيسية للتحكم في نظام الحماية، ويكمن الخطر في عدم وجود برنامج آخر يكشف المشكلة إذا تم اختراق هذه الخوارزمية؛ وللتعامل مع هذه المسألة، تعتمد خدمة الحماية التي تقدمها مايكروسوفت “ويندوز ديفندر” على مجموعة متنوعة من الخوارزميات التي تتمتع بميزات مختلفة، وقد تم تدريبها على مجموعات بيانات مختلفة؛ وبالتالي إذا اخترقت إحدى هذه الخوارزميات، فستكشف النتائج من الخوارزميات الأخرى، وذلك على فرض أنها لم تتعرض للاختراق أيضاً. المشكلة في الخوارزمية المخترقة.

ويلحظ مارتي (من فورسبوينت) -إضافة إلى هذه المسائل- وجود بعض الخوارزميات فائقة التعقيد، إلى درجة يصعب معها فهم بعض النتائج التي تعطيها، ويمكن لمشكلة “التفاهم” هذه أن تعرقل عملية التقييم الفعلي لهذه النتائج.

ولا يجب طبعاً أن نفهم من كل ما سبق أنه يجب ألا يكون للذكاء الاصطناعي والتعلم الآلي دور هام في ترسانتنا الدفاعية؛ بل إن ما يقوله مارتي وغيره هو ضرورة أن تراقب شركات الحماية -وزبائنها أيضاً- المخاطر المرافقة للنماذج الخوارزمية، ويحاولوا التقليل منها قدر الإمكان، وهو ليس بالأمر السهل؛ نظراً لندرة الأشخاص الذين يجمعون في خبراتهم ما بين الأمن السيبراني وعلوم البيانات؛ إنهم أندر من يوم منعشٍ في صيف لاس فيجاس.

المزيد من المقالات حول الذكاء الاصطناعي

  1. Article image
  2. Article image
  3. Article image
error: Content is protected !!