Share

قريبًا.. هجمات ضد الذكاء الاصطناعي

استخدام البيانات التي تم التلاعب بها لخداع الذكاء الاصطناعي
قريبًا.. هجمات ضد الذكاء الاصطناعي
ينبغي على الشركات الاستعداد للهجمات ضد الذكاء الاصطناعي

أصبح الذكاء الاصطناعي بشكل متزايد أداة في ترسانة الجهات الفاعلة في التهديد، التي لا تخشى استخدام أدوات مثل ChatGPT لإنشاء برامج خبيثة وشن عمليات احتيالية متعلقة بالهندسة المجتمعية.

كما لو أن هذا لم يكن كافيًا، أشارت شركة الأمن السيبراني “أكرونيس” في تقريرها الأخير عن التهديدات الإلكترونية إلى أن أحد أكثر التوجهات إثارة للقلق التي ستهيمن على الأخبار في عام 2023 وما بعده هو الهجمات ضد الذكاء الاصطناعي نفسه.

وفقًا لأفيف غرافي، مؤسس Votiro ومديرها التقني، فإن مزودي أدوات الذكاء الاصطناعي يراقبون ويلاحظون عندما يتم استخدام تقنيتهم لأغراض ضارة وخبيثة، وهم يعملون بجد للحد من نواقل الهجوم. على سبيل المثال، يشير غرافي إلى أنه بينما لا يمكنك أن تطلب من ChatGPT أن يرسل إليك بريدًا إلكترونيًا للتصيد الاحتيالي، إلا أنه يمكن القيام بذلك إذا قمت بتغيير طريقة صياغة طلبك.

إقرأ أيضاً: غوغل تطلق روبوتها الخاص للمحادثة القائمة على الـAI

يقول غرافي: “إنه شكل من أشكال الخداع لجعل التكنولوجيا تعمل لصالحهم”، مضيفًا أنه “بغض النظر عن الحواجز التي يضعها مزودو الذكاء الاصطناعي، سيستمر المتسللون في إيجاد طرق للتلاعب بالبيانات وتضليل نماذج الذكاء الاصطناعي”.

تسميم البيانات المدخلة

 

وفقًا للخبراء الأمنين، فإن التهديد الأساسي للذكاء الاصطناعي يتمثل في قيام العناصر الفاسدة بالتلاعب بنماذج الذكاء الاصطناعي ببيانات إدخال متغيرة. عن طريق حقن مجموعات بيانات متحيزة أو تم التلاعب بها في عملية التدريب، على سبيل المثال، يمكن للمهاجمين تغيير مخرجات النماذج لخدمة أغراضهم الخبيثة.

وفقًا لثيو ناصر، المؤسس المشارك والرئيس التنفيذي لشركة Right-Hand Cybersecurity، فإن هذه التهديدات ضد نماذج الذكاء الاصطناعي تؤخذ على محمل الجد.

ويشدد على أن قضايا مثل التلاعب بالبيانات وتسمم النماذج تشكل مخاطر لمجموعة متنوعة من القطاعات التي تعتمد بشكل كبير على المعلومات التي تولدها النماذج. عندما يتسرب التحيز إلى مجموعات البيانات، فمن المحتمل أن يتسبب ذلك في انحراف البحوث الهامة ويخلق روايات كاذبة.

“من شأن ذلك أن يؤدي إلى خسارات هائلة على مستوى المعلومات، والتي يمكن أن تكون كارثية.” ويؤكد ناصر: “من الأهمية بمكان أن نعي أهمية هذه التهديدات وأن نحمي أنفسنا هذه الأنظمة وأن نحمي أنفسنا بأفضل ما لدينا من قدرات”.

إقرأ أيضاً: ChatGPT4.. الإصدار الجديد والمعزز لتقنية الذكاء الاصطناعي التوليدي

وفقًا لماريا تشامبرلين، مالكة Acuity Total Solutions، فإن مجموعة البيانات المتحيزة لا يمكنها فقط تقويض الدافع الأصلي لنموذج التعلم الآلي، ولكن يمكنها أيضًا خداع الخوارزميات لإجراء تقييم خاطئ للموقف بأكمله، مما يؤدي إلى هزيمة الغرض بأكمله من النموذج.

الوقت حان لتولي المسؤولية

 

يتفق خبراؤنا جميعًا على أن التهديدات التي تواجه نماذج الذكاء الاصطناعي والتعلم الآلي خطيرة ومتنامية. والأكثر من ذلك أنه مع انتشار الذكاء الاصطناعي في حياتنا اليومية، فإن عواقب أي هجوم ناجح يمكن أن تكون بعيدة المدى.

“ينبغي على تجار الذكاء الاصطناعي / التعلم الآلي إدراك أنهم يشكلون اليوم هدفاً أساسياً للخصوم الكبار والصغار على حد سواء.” يتيحين المهاجمون الفرصة في ظل تدفق الشركات على منصات مثل ChatGPT”، كما يقول كريغ بورلاند، كبير موظفي أمن المعلومات في Inversion6.

يشير بورلاند إلى أن منصات مثل OpenAI تعطي الأولوية للأمن السيبراني، لا سيما وأن لا شيء يقوض منصة الذكاء الاصطناعي أكثر من أخبار خرق البيانات أو تشويه نموذجها الأساسي.

إقرأ أيضاً: على الشركات الاستعداد للهجمات التي تعمل بالذكاء الاصطناعي

يعتقد أندرو روبنسون، الرئيس التنفيذي للاستراتيجية والشريك المؤسس لـ 6clicks، أن التهديدات التي تتعرض لها نماذج الذكاء الاصطناعي والتعلم الآلي هي واقع فعلي لجميع الأنظمة، لا سيما التقنيات الجديدة التي لم تخضع بعد لدورات اختبارات وتعزيرات أمنية مكثفة.

يعتقد روبنسون أن حدة المخاطر يجري تحديدها بالتأثير الذي تمتلكه النماذج، بحيث “يكون التأثير ضئيلًا إذا كان النموذج مسؤولاً عن اقتراحات شراء المنتج.” ويخلص روبنسون إلى أنه “عندما تصبح النماذج مسؤولة عن حركة الأمور المادية (مثل السيارات والشاحنات والحافلات والطائرات)، تتفاقم الخطورة من حيث الحجم والحدة.