Share

على الشركات الاستعداد للهجمات التي تعمل بالذكاء الاصطناعي

ولكن يمكن لهذه التقنية أن تستخدم أيضاَ من قبل الأخيار
على الشركات الاستعداد للهجمات التي تعمل بالذكاء الاصطناعي
سوف يستخدم جهات التهديد الفاعلة تقنية الذكاء الاصطناعي بشكل متزايد لإنشاء حملات هجوم ضارة

في تقريرها الأخير حول التهديدات الإلكترونية، تتوقع مجموعة “أكرونيس” أن الذكاء الاصطناعي (AI) والتعلم الآلي (ML) سيساعدان في تأجيج حملات الاحتيال والتضليل في الهوية في المستقبل غير البعيد.

يعتقد كريستوفر هيلز، كبير الاستراتيجيين الأمنيين في BeyondTrust أنه على الرغم من أن الذكاء الاصطناعي ليس قادرًا بعد على تعلم وتكرار السلوك البشري، إلا أن المستجدات الأخيرة وضعته في حالات استخدام مثيرة للاهتمام مثل التنبؤ الصحيح بالحالات الطبية بناءً على الأعراض. يحذر هيلز “من البديهي الاعتبار أن هذا أمر جيد، ولكن في أيدي الأطراف التي تشكل تهديداً، يمكن بسهولة الاستفادة من الذكاء الاصطناعي لأغراض شائنة”.

إقرأ أيضاً: مجرمو الإنترنت يستخدمون ChatGPT لشنّ هجمات التصيّد الموجّه

يتفق غريغ هاتشر، الرئيس التنفيذي في White Knight Labs، مع هذا القول، مشيراً إلى أن إساءة استخدام الذكاء الاصطناعي من قبل جهات التهديد الفاعلة لأغراض شائنة تعد مصدر قلق متزايد، لا سيما منذ ظهور ChatGPT.

هجمات مدعومة بالذكاء الاصطناعي

 

وفقًا للخبيرين، فإن إحدى أبرز الحالات التي يسيء فيها جهات التهديد الفاعلة استخدام الذكاء الاصطناعي تتمثل في صياغة رسائل بريد إلكتروني تصيد شخصية تحاكي أسلوب الكتابة لدى معارف الهدف، مما يجعلها أكثر إقناعًا ويصعب تبينها.

يمثل التصيد الاحتيالي بالفعل مشكلة خطيرة في المنطقة. بحسب Acronis، تتصدر الكويت أفضل 10 دول في منطقة أوروبا والشرق الأوسط وإفريقيا بأكبر عدد عناوين URL تم حجبها في نوفمبر 2022، تليها كل من السعودية والأردن في المركز الثامن، فيما تحل الإمارات في المرتبة العاشرة.

من جهته، يشير أفيف غرافي، كبير التكنولوجيا ومؤسس Votiro، إلى أنه في حين برهن التصيد الاحتيالي على أنه وسيلة مفضلة لجهات التهديد لإدخال برامج ضارة في شبكة الشركات، إلا أنه في السنوات الأخيرة، انخفض معدل نجاح هذه العمليات بفضل مجموعة من العوامل مثل التدريب على التوعية حول التصيد الاحتيالي وغيرها من أشكال تقنيات مكافحة الفيروسات أو وضع الحماية التي تتصدى لأي محاولات محتملة لإدخال برامج ضارة ومؤذية.

ويضيف غرافي: “اليوم، في ظل الذكاء الاصطناعي، أصبح المتسللون الآن في موقف جيد. فمن خلال استخدام روبوتات الدردشة التي تعمل بالذكاء الاصطناعي، مثل ChatGPT، يمكن للجهات الضارة إنشاء لغة مقنعة وصحيحة نحويًا بسهولة أكبر لتنفيذ هجمات التصيد الاحتيالي”.

انطلاقاً من هنا، يقول هاتشر إن الذكاء الاصطناعي يعود بالمنفعة الهائلة لغير الناطقين باللغة الإنغليزية الذين يحتاجون إلى صياغة رسائل تصيد إلكتروني باستخدام نبرة صوتية معينة: “لقد انتهى عصر رسائل البريد الإلكتروني المخادعة التي تحتوي على كلمات بها أخطاء إملائية وقواعد نحوية غير سليمة. لقد أصبح هذا من الماضي”.

إقرأ المزيد: هجمات برمجيات الفدية الخبيثة قد تتسبب بأضرار بـ 30 مليار دولار بحلول 2023

يتوقع خبراؤنا أيضًا أن يكون الجيل التالي من هجمات الهندسة المجتمعية مدفوعًا بالذكاء الاصطناعي، مع إساءة استخدام التقنية لإنشاء تزييف عميق للصوت والفيديو.

يعتقد Iu Ayala Portella، الرئيس التنفيذي ومؤسس Gradient Insight، أن المهاجمين في المستقبل سيستخدمون الذكاء الاصطناعي لإنشاء هويات اصطناعية يمكن استخدامها للقيام بأنشطة احتيالية ونشر معلومات مضللة والتلاعب بالرأي العام.

“على سبيل المثال، يمكن للمهاجمين استخدام أدوات استنساخ الصوت التي تعمل بالذكاء الاصطناعي لإنشاء انتحال صوتي واقعي لأفراد معينين، مثل السياسيين أو قادة الأعمال أو المشاهير، لنشر أخبار مزيفة أو حتى التأثير على نتائج الانتخابات. على نحو مماثل، يمكن لأدوات التلاعب بالصور التي تعمل بواسطة الذكاء الاصطناعي إنشاء مقاطع فيديو أو صور مزيفة مقنعة لأشخاص يمكن استخدامها لابتزاز الأفراد أو ابتزازهم أو خداعهم”، بحسب Portella.

هجمات التزييف العميق

 

يقول ثيو ناصر، الشريك المؤسس والرئيس التنفيذي في شركة Right-Hand Cybersecurity إن استخدام مهاجمي التزييف العميق سيكونون قادرين على إنشاء رسائل بريد إلكتروني ونصوص تصيد احتيالي مقنعة وواقعية قد ينجم عنها تهديدات شديدة التعقيد قد تبدو بالنسبة للمبتدئين واقعية للغاية ويمكن تصديقها.

يستشهد هاتشر بواحدة من أنجح عمليات الاحتيال المزيف التي وقعت في عام 2020، حيث تم خداع مدير أحد المصارف في هونغ كونغ من قبل المجرمين لتحويل 35 مليون دولار إلى حساب مصرفي يديره لصوص. استخدم المجرمون تقنية “الصوت العميق” للتحايل على صوت مدير شركة كانت مألوفة بالنسبة لمدير المصرف. عرف المجرمون أن الشركة كانت على وشك إجراء عملية استحواذ، وأنهم سيحتاجون إلى بدء تحويل بنكي لشراء الشركة الأخرى. روى هاتشر أن المجرمين حددوا توقيت الهجوم على نحو محكم، مما أسفر عن تحويل مدير البنك لأموال الصفقة.

إقرأ أيضاً: 6 توجهات لعمليات الابتزاز الإلكتروني يشهدها العالم

بالإضافة إلى القوة الفائقة لنواقل الهجوم التقليدية، يشير غرافي إلى أن المتسللين المبتدئين يمكنهم أيضًا استخدام أدوات الذكاء الاصطناعي للمساعدة في صياغة تعليمات برمجية ضارة أو برامج ضارة ربما لم يتمكنوا من إنشائها بأنفسهم.

يوضح غرافي: “قد لا ينجحوا بالضرورة في ذلك، بسبب بدائية البرمجيات الخبيثة التي تولدها هجوماتهم، ولكن ذلك لن يثنيهم عن التلاعب بالتكنولوجيا ومحاولة تطوير مهاراتهم في هذا الإطار”.

تمثل البرامج الضارة كذلك مصدر قلق كبير في المنطقة، بحيث وفقاً لأكرونيس، برزت الأردن في الربع الثالث من العام 2022 كواحدة من أكثر الدول تعرضًا للهجمات، من حيث عدد البرامج الضارة لكل مستخدم.

يقول غرافي، إن ما يفاقم المشكلة هو حقيقة أن الذكاء الاصطناعي يمكّن أيضًا جهات التهديد الفاعلة من إنشاء صور ومقاطع فيديو ضارة مضمنة بالبرامج الخبيثة. يعد ذلك مسألة خطيرة كون معظم الشركات التي تستفيد من تقنيات مكافحة الفيروسات أو وضع الحماية ليست مجهزة بمافيه الكفاية لاكتشاف التهديدات المضمنة في الصور ومقاطع الفيديو.

لا تزال هناك فرص للنجاح والتعافي

 

يقر أندرو روبنسون، كبير مسؤولي المبيعات والشريك المؤسس في 6clicks، على أنه مثل أي تقنية جديدة، سيكون للذكاء الاصطناعي والتعلم الآلي أيضًا نقاط ضعف سيتم استغلالها لا محالة، مشيراً إلى أن تقنيات الذكاء الاصطناعي والتعلم الوليدة تخفض حاجز أمام اقتحام المهاجمين باستخدام نفس الطريقة التي يستخدمون خفض حاجز الدخول لتطوير البرامج العامة.

ومع ذلك، على الرغم من احتمالية إساءة الاستخدام، يعرب روبنسون عن ثقته بأن الذكاء الاصطناعي والتعلم الآلي سيساعدان أخيرًا في قلب الموازين لصالح النشطاء المدافعين عن هذه التقنيات.

“أنا متفائل بأن تقنيات الذكاء الاصطناعي والتعلم الآلي توفر لهؤلاء القدرة على الاكتشاف والاستجابة بشكل أسرع من أي وقت مضى والتفوق على المهاجمين – بمجرد اكتمال هذه التقنيات – في ما كان يعتبر سابقًا سباق تسلح لا ينتهي”، يلفت روبنسون.

إقرأ أيضاً: أهم 5 تهديدات قد تواجهها الشركات الصغيرة والمتوسطة في 2023