الأمن الإلكتروني

كاسبرسكي تكشف عن تأثير الذكاء الاصطناعي في الأمن السيبراني خلال عام 2023

كشف خبراء كاسبرسكي في تقرير جديد عن التأثير العميق للذكاء الاصطناعي في مشهد الأمن السيبراني لعام 2023، فقد تضمن التقرير تحليلًا عميقًا للآثار المترتبة على انتشار أدوات الذكاء الاصطناعي، مع التركيز في كيفية استخدام المدافعين والمنظمين له، وتقييم استغلال المجرمين السيبرانيين المحتمل له بشكل منفصل.

وسط الوتيرة السريعة للتقدم التكنولوجي والتحولات المجتمعية، صعد مصطلح الذكاء الاصطناعي ليصبح محورًا رئيسيًا للنقاشات العالمية خلال عام 2023. كما أن الذكاء الاصطناعي التوليدي لم يَعُدْ مجرد ظاهرة تكنولوجية، بل أصبح قوة عالمية تعيد تشكيل الطريقة التي نفكر ونعمل بها أيضًا، لذلك أصبح الناس يتعاملون مع المزيد من مشكلات الأمان والخصوصية، مما يجعل من المستحيل عزل الذكاء الاصطناعي التوليدي عن مجال الأمن السيبراني.

لذلك يوضح باحثو كاسبرسكي في التقرير كيف ساعدت أدوات الذكاء الاصطناعي المجرمين السيبرانيين في أنشطتهم الخبيثة في عام 2023، كما يعرضون التطبيقات الدفاعية المحتملة لهذه التقنية. بالإضافة إلى ذلك يكشف خبراء الشركة أيضًا عن المشهد المتطور للتهديدات المتعلقة بالذكاء الاصطناعي في المستقبل التي قد تشمل، ما يلي:

زيادة نقاط الضعف المعقدة:

أولًا وقبل كل شيء، النماذج اللغوية الكبيرة جديدة جدًا ولم تنضج بعد، مع استمرار إدماج النماذج اللغوية الكبيرة التي تتبع التعليمات في المزيد من المنتجات الموجهة للمستهلكين، ستظهر ثغرات أمنية معقدة جديدة، مما سيؤدي إلى توسيع الهجمات التي يجب على متخصصي الأمن السيبراني التعامل معها.

سيتطلب هذا من المطورين إنشاء ممارسات وإجراءات أمنية جديدة، مثل: عدم تنفيذ النماذج اللغوية الكبيرةِ أيَّ إجراء قد يكون مدمرًا دون موافقة المستخدم. وفي الوقت نفسه؛ قد يتطلب منع الاستخدام الضار مع إبقاء الأدوات مفتوحة لمجتمع الأمن السيبراني تنظيمات أمنية أو تطوير حلول دفاعية مخصصة للهجمات التي تعتمد على الذكاء الاصطناعي.

ظهور مساعد شخصي شامل يعمل بالذكاء الاصطناعي يساعد متخصصي الأمن السيبراني:

يستفيد أعضاء فريق المخترقين الاختباري (Red Team)، والباحثون من الذكاء الاصطناعي التوليدي في بناء أدوات أمن سيبراني مبتكرة، مما قد يؤدي إلى ظهور مساعد شخصي يستخدم نموذجًا لغويًا كبيرًا أو نموذج تعلم آلي. إذ يمكن لهذه الأداة أتمتة مهام فريق المخترقين الاختباري وتوجيههم بناءً على أوامر منفذة في بيئة لاختبار الاختراق.

استخدام الشبكات العصبية لإنشاء محتوى بصري مقنع لعمليات الاحتيال:

في المشهد الرقمي اليوم، انتشرت أدوات الذكاء الاصطناعي التي يمكنها بسهولة إنشاء صور مذهلة أو تصميم صفحات ويب كاملة. ويستخدم القراصنة هذه الأدوات أيضًا لصياغة محتوى احتيالي أكثر إقناعًا، ومن ثم قد تتصاعد التهديدات السيبرانية المرتبطة بالاحتيال، مما قد يؤدي إلى زيادة هذا النوع من الهجمات وأعداد الضحايا.

وهذا يؤكد الأهمية المتزايدة لمحو الأمية الإلكترونية، واستخدام برامج مكافحة الفيروسات القوية لحظر البريد الإلكتروني الاحتيالي، وتقديم تحذيرات من مواقع الويب المشبوهة.

في العام المقبل، قد يستخدم المحتالون (الشبكات العصبية) Neural Networks؛ لتعزيز مناوراتهم، وأيضًا أدوات الذكاء الاصطناعي لإنشاء محتوى احتيالي أكثر إقناعًا.

لذلك من المحتمل أن يؤدي التطور السريع للذكاء الاصطناعي إلى قيام الشركات بوضع سياسات تقيد أو تحد من استخدام منتجات الذكاء الاصطناعي في مهام العمل، ومن ثم التخفيف من مخاطر تسريب البيانات، والعمليات الاحتيالية.

لن يُحدث الذكاء الاصطناعي تغييرًا عظيمًا في مشهد التهديدات في عام 2024:

على الرغم من التوجهات التي ذُكرت في النقاط السابقة، يشك خبراء كاسبرسكي في قدرة الذكاء الاصطناعي على تغيير مشهد التهديدات بشكل كبير في أي وقت قريب.

ففي حين يتبنى المجرمون السيبرانيون الذكاء الاصطناعي التوليدي، سيفعل المدافعون السيبرانيون الأمر ذاته، فهم سيستخدمون الأدوات نفسها أو أدوات أكثر تقدمًا لاختبار تعزيز أمان البرامج والشبكات، مما يقلل احتمالية تغيير هذه التقنية لمشهد الهجمات السيبرانية بشكل جذري.

إجراء المزيد من المبادرات التنظيمية المتعلقة بالذكاء الاصطناعي:

أصبح وضع السياسات والتنظيمات أولوية وسط التطوير السريع لتقنيات الذكاء الاصطناعي الثورية، فمن المتوقع أن يرتفع عدد المبادرات التنظيمية المتعلقة بالذكاء الاصطناعي. ويمكن أن تقدم الجهات غير الحكومية، مثل الشركات التقنية، نظرًا إلى خبرتها في تطوير الذكاء الاصطناعي واستخدامه، معلومات ستكون قيّمة لإجراء نقاشات حول التنظيمات التي ستُطبق على الذكاء الاصطناعي في المنصات العالمية والوطنية.

تعريف المحتوى المولّد بالذكاء الاصطناعي بعلامة مائية:

ستظهر الحاجة إلى المزيد من التنظيمات، فضلًا عن سياسات لمزودي الخدمات، تفرض تعريف أو تفريق المحتوى الاصطناعي، مع الاستمرار في الاستثمار في تقنيات الكشف عنه. وبدورهم سيساهم المطورون والباحثون في تطوير طرق لوضع علامات مائية على المحتوى الاصطناعي لتسهيل معرفته ومعرفة مصدره.

وتعليقًا على هذا التقرير؛ قال فلاديسلاف توشكانوف، وهو خبير أمني في شركة كاسبرسكي: “يُعد الذكاء الاصطناعي سلاحًا ذا حدين في مجال الأمن السيبراني. إذ تعمل قدراته التكيفية على تعزيز دفاعاتنا وتوفر درعًا استباقيًا يقي من التهديدات المتطورة. ومع ذلك، تشكل تلك المرونة نفسها مخاطر كثيرة، إذ يستفيد المهاجمون من الذكاء الاصطناعي لتطوير هجمات أكثر تطورًا. لذلك، يُعد تحقيق التوازن الصحيح، أي ضمان الاستخدام المسؤول للتقنية دون الإفراط في مشاركة البيانات الحساسة أمرًا بالغ الأهمية في تأمين حدودنا الرقمية”.

الجدير بالذكر أن هذا التقرير يُعد جزءًا من نشرة كاسبرسكي الأمنية؛ وهي سلسلة سنوية من التنبؤات والتقارير التحليلية التي يجريها خبراء كاسبرسكي حول التحولات الرئيسية في عالم الأمن السيبراني. وللاطلاع على أجزاء نشرة كاسبرسكي الأمنية الأخرى، يمكنك الانتقال إلى هذا الرابط.

زر الذهاب إلى الأعلى