أخبار قطاع الأعمالالأمن الإلكترونيتحت الضوءدراسات وتقارير

الذكاء الاصطناعي ودوره في تعزيز الأمن الإلكتروني

أصبح للأمن الإلكتروني أهمية كبرى في حياتنا اليومية خاصة مع ازدياد الاعتماد على تقنيات إنترنت الأشياء التي تربط كل شيء خاص بنا بشبكة الإنترنت، لذلك من المتوقع أن نجد الذكاء الاصطناعي أحد الركائز الأساسية في مجال الأمن الإلكتروني خلال الأعوام المقبلة، إن لم يكن قد أصبح كذلك بالفعل.

حيث يمكنك الحصول على انطباع بأن حلول الدفاع الرقمي قد وصلت إلى ذروة تطورها أثناء تجولك في قاعات العرض الضخمة الموجودة بمؤتمر RSA للأمن الإلكتروني الأخير الذي أقيم في مدينة سان فرانسيسكو الأمريكية.

سنجد أيضا أن هناك زيادة كبيرة في مبيعات برامج الأمن الإلكتروني التي وعدت بدفاعات لا يمكن اختراقها بسبب اعتمادها على تقنيات الذكاء الاصطناعي والتي تُمكنها من الكشف الفوري عن أي برامج ضارة على الشبكة والاستجابة للحوادث واكتشاف الإختراقات قبل أن تبدأ.

هذه الرؤية الوردية لما يمكن أن يقدمه الذكاء الاصطناعي ليست خاطئة تماماً. ولكن ما تفعله تقنيات الجيل التالي يبدو غير واضح بشكل أكبر مما تريد جهات التسويق لهذه التقنيات أن تعترف به، ولحسن الحظ فإن الباحثين الذين يطورون برامج دفاعية جديدة في الشركات والأوساط الأكاديمية يتفقون إلى حد كبير على كل من الفوائد والتحديات المحتملة، ولكن يجب البدء في تحديد وتعريف واضح للمصطلحات.

وقد قال مارسين كلينزينسكي الرئيس التنفيذي لشركة مالويربايتس Malwarebytes للأمن الإلكتروني، والتي روجت لبرنامجها الخاص لتتبع التهديدات باستخدام تقنيات التعلم الآلي في مؤتمر RSA: “لا أعتقد أن الكثير من هذه الشركات تستخدم تقنيات الذكاء الاصطناعي ولكنها تعمل على تطوير التعلم الآلي فقط، وإنه لشيء مُضلل أن تطلق عليها برامج تعتمد على الذكاء الاصطناعي حيث يسبب هذا ارتباكًا كبيراً للمستخدمين”.

مزيد من الاعتماد على الآلات

تعتمد شركات الأمن الإلكتروني على خوارزميات التعلم الآلي بشكل عام لتدريب مجموعات البيانات الكبيرة على تَعلم ما يجب مشاهدته على الشبكات وكيفية التفاعل مع المواقف المختلفة وهذا عكس ما تقدمه أنظمة الذكاء الاصطناعي، ولا تستطيع معظم تطبيقات الأمن الإلكتروني الموجودة اكتشاف استنتاجات جديدة بدون بيانات تدريب جديدة.

يعتبر التعلم الآلي النهج المناسب تمامًا للدفاع ضد الفيروسات وفحص البرامج الضارة. حيث إنه لعقود من الزمن كانت البرامج المضادة للفيروسات Antivirus تعتمد على مايُعرف باسم مطابقة التوقيع، بمعنى أن شركات الأمن الإلكتروني كانت تحدد برامج خبيثة معينة وتستخرج لها بصمة فريدة تمثل توقيعًا مميزًا لكل نوع منها، ثم تراقب أجهزة العملاء لضمان عدم ظهور أي من هذه التوقيعات.

ويعمل فحص البرمجيات الخبيثة القائم على التعلم الآلي بطريقة مشابهة إلى حد ما حيث يتم تدريب الخوارزميات على كتالوجات هائلة من البرامج الخبيثة لمعرفة ما الذي تبحث عنه، كما أن نهج التعلم الآلي له فائدة إضافية وهي المرونة لأن أداة الفحص تتعلم من خلاله البحث عن خصائص البرامج الضارة بدلاً من التوقيعات الخاصة بها.

يمكن للقراصنة عرقلة البرامج المضادة للفيروسات التقليدية عن طريق إجراء تعديلات طفيفة على برامجهم الضارة التي من شأنها التخلص من التوقيع، في حين تعتمد أنظمة التعلم الآلي على أساليب الفحص الأكثر تنوعًا وهي التي تقدمها جميع الشركات الكبيرة في مجال الأمن الإلكتروني في هذه المرحلة، ولكن ما زالت هذه الأنظمة بحاجة إلى تحديثات منتظمة ببيانات تدريبية جديدة، لكن النظرة الأكثر شمولية توضح أن مهمة القراصنة أصعب.

يقول فيل روث عالِم البيانات في مؤسسة Endgame للأمن الإلكتروني اعتمادًا على التعلم الآلي: “إن طبيعة البرمجيات الخبيثة تتطور باستمرار، لذا فإن الأشخاص الذين يكتبون توقيعات لعائلات معينة من البرامج الضارة يواجهون تحديًا كبيرًا باستمرار”.

غالبًا ما يعتمد القراصنة على أساليب قديمة أو يستخدمون أكواد موجودة بالفعل، لأنهم إذا كتبوا برامج ضارة من الصفر فسيبذلون الكثير من الجهد لهجوم قد لا يكون له تأثير كبير، لذا يمكنك التعلم من جميع التقنيات الموجودة في مجموعة التدريب الخاصة بالخوارزميات للتعرف على الأنماط  الجديدة التي قد يستخدمها المهاجمين وعندها تستطيع أن تتغلب عليها”.

وبالمثل أصبح التعلم الآلي شيء لا غنى عنه في المعارك ضد الرسائل الغير مرغوب فيها Spam وأدوات الخداع الإلكتروني وتصيد البيانات Phishing، حيث يشير إيلي بورزتين الذي يقود فريق أبحاث مكافحة إساءة الاستخدام في جوجل إلى إن البريد الإلكتروني جيميل Gmail قد استخدم تقنيات التعلم الآلي من أجل تصفية الرسائل الإلكترونية منذ إطلاقه قبل 18 عامًا.

ولكن بمرور الوقت تطورت استراتيجيات الهجوم ومخططات تصيد البيانات لتصبح أكثر ضرراً، وبناء عليه أصبح الجيميل وخدمات جوجل الأخرى في حاجة إلى التكيف مع القراصنة الذين يعرفون هذه الأساليب، ستحتاج جوجل وكبار مقدمو الخدمات الآخرون إلى زيادة الاعتماد على الأتمتة وتقنيات التعلم الآلي لمواكبة ذلك.

ونتيجة لذلك  اعتمدت جوجل على تطبيقات التعلم الآلي في جميع خدماتها تقريبًا خاصة التقنية المعروفة باسم التعلم العميق Deep Learning، التي تسمح للخوارزميات بإجراء المزيد من التعديلات المستقلة والتنظيم الذاتي أثناء تدريبها وتطويرها.

حيث يقول بورزتين: “نحن نعيش بعالم كلما زادت البيانات كلما زادت لديك المشاكل، ولكن مع تقنية التعلم العميق كلما ازدادت البيانات كلما كان ذلك أفضل، حيث أصبحنا نعتمد عليها في منع ظهور صور العنف ومسح التعليقات وكشف تصيد البيانات وكشف البرامج الضارة في متجر جوجل للتطبيقات، ونستخدمها أيضًا لكشف المدفوعات الاحتيالية وحماية حلول الحوسبة السحابية، والكشف عن أجهزة الكمبيوتر المخترقة في كل مكان”.

لذلك تعتبر أكبر قوة في التعلم الآلي هي التدريب على فهم ما هو طبيعي بالنسبة للنظام ثم وضع أي شيء غير عادي للمراجعة البشرية، وينطبق هذا المفهوم على جميع أنواع الكشف عن التهديدات بمساعدة التعلم الآلي، لذلك يقول الباحثين إن التفاعل بين التعلم الآلي والبشر هو القوة الحاسمة لهذه التقنيات. في عام 2016 قدرت شركة IBM أن المؤسسة في المتوسط تتعامل مع أكثر من 200 ألف تهديد أمني  في اليوم.

آخر تطورات الهجمات الإلكترونية

على الرغم من أن العديد من أدوات التعلم الآلي قد أظهرت بالفعل نتائج واعدة في توفير الدفاع إلا أن الباحثين يحذرون بإجماع من الطرق التي بدأ القراصنة في إستخدامها حيث أنهم أصبحوا يعتمدون على تقنيات التعلم الآلي في الهجوم، ومن أكثر أنواع هذه الهجمات شيوعًا هو تغلب القراصنة على اختبار تحقق الحروف الكابتشا  Captchas التي تستخدم لإثبات أن من يقوم بعملية الإدخال للبيانات هو شخص وليس آلة لتلافي البرمجيات الخبيثة التي تقوم بالتسجيل.

في حين ظهر أيضًا تهديد آخر للتعلم الآلي وهو تسميم البيانات Data Poisoning، إذا تمكن القراصنة من معرفة كيفية إعداد الخوارزميات أو من أين يتم سحب بيانات التدريب الخاصة بهذه الخوارزميات  مما يجعلهم قادرين على اكتشاف طرق لإدخال بيانات مضللة تقوم ببناء خوارزميات مضادة حول المحتوى. على سبيل المثال قد يقوم القراصنة بتشغيل حملات على آلاف الحسابات لوضع علامة على الرسائل أو التعليقات لتظهر كأنها ضارة وغير مرغوب فيها في محاولة لتخطي هذه الخوارزمية.

وفي مثال آخر قام باحثون من مؤسسة Cyxtera المتخصصة في مجال أمن الحوسبة السحابية ببناء مولد لهجمات التصيُّد الاحتيالي قائم على التعلم الآلي والذي تَدرب على أكثر من 100 مليون هجوم تاريخي فعال ليتمكن من توليد روابط ورسائل بريد إلكتروني إحتيالية بشكل أكثر كفاءة.

وقال أليخاندرو كوريا باهنسن نائب رئيس قسم الأبحاث بشركة Cyxtera: “في المتوسط مولد هجمات التصيُّد الاحتيالي القائم على التعلم الآلي سيتجاوز نظام الكشف القائم على الذكاء الاصطناعي بنسبة 0.3 % من الوقت، ولكن باستخدام الذكاء الاصطناعي استطاع القراصنة تجاوز النظام أكثر من 15% من الوقت، وعندما أردنا معرفة كيف قام المهاجم ببناء ذلك. وجدنا أن جميع البيانات متاحة له حيث أن جميع المكتبات كانت مفتوحة المصدر”.

وقد لاحظ الباحثون أن هذا هو السبب في أهمية إنشاء أنظمة تعلم آلي تعتمد على وجود الإنسان، لأن الأنظمة ليست هي الحكام المستقلين، فنظم التعلم الآلي يجب أن يكون لديها الخيار لتقول: “أنا لم أر هذا من قبل” وتطلب المساعدة من الإنسان، كان هذا رأي Battista Biggio الأستاذ المساعد في جامعة كالياري الإيطالية “لا يوجد ذكاء اصطناعي حقيقي في أنظمة الأمن الإلكتروني إنها استنتاجات من البيانات أو علاقات معتمدة على البيانات لذا يجب أن يكون الناس على دراية بأن هذه التكنولوجيا لها قيود”.

تحقيقًا لهذه الغاية عمل مجتمع البحث على فهم كيفية تقليل النقاط العمياء في أنظمة التعلم الآلي بحيث يمكن تقويتها ضد الهجمات، وفي مؤتمر RSA للأمن الإلكتروني أصدر الباحثون من مؤسسة Endgame مجموعة تدريب على مصادر التهديد مفتوحة المصدر تُسمى EMBER، على أمل أن يتمكنوا من حث الشركات المنافسة للتركيز على التعاون في مجال الأمن الإلكتروني المعتمد على التعلم الآلي.

ويقول روث في برنامج Endgame: “هناك أسباب وجيهة بأن صناعة الأمن الإلكتروني ليس لديها العديد من مجموعات البيانات المفتوحة، قد تحتوي هذه الأنواع من البيانات على معلومات شخصية أو قد تعطي للمهاجمين معلومات حول الشكل الذي تبدو عليه بنية شبكة الشركة، ولقد استغرق الأمر الكثير من العمل لتطهير مجموعة بيانات EMBER، ولكن أملي هو تشجيع المزيد من الأبحاث واتحاد شركات الأمن الإلكتروني للعمل معًا”.

قد يكون هذا التعاون ضروريًا لبقاء شركات الأمن الإلكتروني متقدمة على القراصنة الذين يستخدمون تقنيات التعلم الآلي في الهجمات، خاصة مع وجود نتائج واضحة للتعلم الآلي في مجال الأمن الإلكتروني حاليًا والتي ستتطور خلال السنوات القادمة.

زر الذهاب إلى الأعلى