أدى إساءة استخدام تقنية الذكاء الاصطناعي التوليدي (GenAI) إلى إنشاء روايات يتم بيعها عبر Amazon وإنتاج إعلانات سياسية مزيفة. بالإضافة إلى ذلك، أصبح اليوم البريد العشوائي ورسائل التصيد الاحتيالي خارج نطاق السيطرة غير قابل للسيطرة بسبب قدرة الذكاء الاصطناعي على استهداف الأفراد بشكل أكثر فعالية.
فالـ Spam هي عبارة عن رسائل البريد الإلكتروني التجارية غير المرغوب فيها التي تهدف إلى إقناع المستلمين بإجراء عمليات شراء أو النقر فوق الروابط. كما قد تسعى إلى تثبيت البرامج الضارة أو التلاعب بآراء المستخدمين. في ظل التطور الكبير الذي يشهده الذكاء الاصطناعي، يمكن لمرسلي البريد العشوائي الآن الابتعاد عن الأساليب العشوائية التقليدية. وعوضاً عن ذلك، يلجأ هؤلاء إلى اعتماد تقنيات مراسلة أكثر تركيزًا وإقناعًا. أصبح هذا ممكنًا من خلال وصول الذكاء الاصطناعي إلى منشورات وسائل التواصل الاجتماعي. يتيح ذلك إنشاء محتوى أكثر تخصيصاً وإقناعًا.
وفقًا لتقرير حديث صادر عن “اليوروبول”، من المتوقع أن يتم إنشاء 90 في المئة من محتوى الإنترنت بالذكاء الاصطناعي في غضون سنوات قليلة. يشير ذلك إلى أننا في طور الدخول حقبة من المعلومات المضللة واسعة النطاق التي تخدع الناس حول العالم.
عصر المعلومات المضللة مع الذكاء الاصطناعي التوليدي
أدى انتشار تقنية GenAI إلى خلق بيئة صعبة عبر الإنترنت. أدى هذا إلى إغراق الإنترنت بالبريد العشوائي والمعلومات المضللة والعديد من مواقع الويب المليئة بالنصوص المزيفة. يتم إنشاء هده النصوص بواسطة الذكاء الاصطناعي، وتستهدف محركات البحث على وجه التحديد. يستفيد الجهات الراعية من ذلك من خلال دمج فتحات الإعلانات البرنامجية لتوليد الإيرادات، كما هو موضح في تقرير صادر عن NewsGuard.
ويتسبب الجمع بين أنظمة الإعلان والمواقع الإلكترونية الآلية في الغالب، والتي يسهلها المحتوى الناتج عن الذكاء الاصطناعي مع الحد الأدنى من المدخلات البشرية، إلى تفاقم المشكلة.
في تحقيقهم، أجرى NewsGuard بحثًا عن مؤشرات واضحة على أن الذكاء الاصطناعي لعب دورًا كبيراً في ذلك. وجرى ذلك لا سيما من خلال مراقبة رسائل الخطأ التي أنشأتها هذه الأنظمة ردًا على الاستفسارات. أحد الأمثلة الشائعة على مثل هذه الرسائل هو عندما يرد الذكاء الاصطناعي بالقول:، “أعتذر، كنموذج للغة الذكاء الاصطناعي، لا يمكنني تقديم معلومات محددة بخصوص مواضيع معينة”…
اقرأ أيضاً: صعود الخدمات المصرفية المفتوحة في المنطقة: منظومة مالية تركز على العملاء
وكشف التحقيق عن قيام أكثر من 350 موقعًا “إخباريًا مزيفًا” عن استخدام نصوص تم إنشاؤها بواسطة الذكاء الاصطناعي. وتبيّن أن أحد هذه المواقع الالكترونية قام بنشر من 1,200 مقالة جديدة على أساس يومي.
ومن الأمثلة على هذه المواقع Biz Breaking News و Market News Reports. تغطي هاتان المنصتان موضوعات متنوعة مثل السياسة والتكنولوجيا والاقتصاد والسفر. واحتوى جزء كبير من هذه المقالات على ادعاءات لم يتم التحقق منها ونظريات انطوت على الكثير من الخداع والمؤامرة.
كما تم الكشف عن أن أكثر من ربع هذه المواقع لديها 141 علامة تجارية بارزة تعلن على منصاتها. ويتم ذلك في غياب كلي لإدراك ترافق إعلانات العلامات التجارية مع محتويات ملفقة.
إضعاف المحتوى الأصلي
أدى ظهور المحتوى الناتج عن الـAI إلى تراجع المنصات الموثوقة مثل Stack Overflow. اشتهرت الأخيرة تقليديًا باعتبارها من المواقع الإلكترونية المفضلة للاستفسارات والإجابات التقنية. إلا أن شركة Prosus، الشركة التي تقف وراء Stack Overflow، اتخذت قرارًا بالسماح بالاستجابات الناتجة عن الذكاء الاصطناعي. بحيث بدأت في فرض رسوم على شركات الذكاء الاصطناعي للوصول إلى بياناتها.
تقوم شبكة من الروبوتات بنشر كميات كبيرة من المحتوى الذي تم إنشاؤه بواسطة ChatGPT على منصات التواصل الاجتماعي مثل X و Facebook. تعمل هذه الروبوتات بسرعة على تحسين قدرتها على تقليد السلوك البشري. ويجعل ذلك من الصعب على أنظمة الكشف عن الذكاء الاصطناعي التعرف عليها.
هناك مخاوف من أن جهات رئيسية بارزة مثل Microsoft و Google قد يمنحون الأولوية في النهاية للملخصات التي تم إنشاؤها بواسطة الروبوتات بدلاً من روابط نتائج البحث التقليدية. هذه الملخصات لديها القدرة على مزج المعلومات الواقعية مع العناصر الخيالية بطريقة مقنعة للغاية.
بالإضافة إلى ذلك، يستفيد الجهات الخبيثة من الذكاء الاصطناعي لعمل مسح إلكتروني لمنصات التجارة الإلكترونية مثل أمازون بحثًا عن كتب منشورة مسبقًا واستخراج عناوينها. وتقوم هذه الجهات باستغلال هذه المعطيات لنشر كتب ذات عناوين متطابقة قبل إصدار الأعمال الأصلية، والانخراط في ممارسات خادعة.
مطوّرو الذكاء الاصطناعي التوليدي يخططون للانخراط في عمليات احتيالية
يتيح الذكاء الاصطناعي للجهات الخبيثة تخصيص تكتيكاتهم واستراتيجياتهم الخادعة لكل هدف على حدة بناءً على تفضيلاتهم الفردية وأنماطهم السلوكية، واستخراج هذه المعلومات من المواقع العامة وملفات تعريف الوسائط الاجتماعية.
لقد ولت المؤشرات الواضحة لعمليات الاحتيال الاحتيالية عالية الخطورة، والتي تتميز بالعديد من الأخطاء المطبعية في النص والرسومات سيئة التصميم. بحيث لن تكون أوجه القصور هذه موجودة بعد اليوم.
يتمتع المحتالون في وقتنا الحالي بالقدرة على استخدام شبكة احتيال مدعومة بالذكاء الاصطناعي، مما يسمح لهم بدمج صورة ملفك الشخصي في حملة البريد الإلكتروني المخصصة للعلامة التجارية. يمكنهم حتى إنشاء رسائل فيديو ملفقة تظهر مشاهير بأصوات تم التلاعب بها، وتناقش موضوعات قد تكن ذات أهمية بالنسبة لك. ويتم تصميم عمليات الاحتيال هذه لتكون خالية من الأخطاء، مما يجعل من الصعب على مرشحات البريد العشوائي اكتشافها وحظرها.
عمليات الاحتيال في GenAI: رموز مخفية
تشكل الزيادة الهائلة في الرسائل غير المرغوب فيها التي يتم إنشاؤها بواسطة الذكاء الاصطناعي خطرًا هائلاً من صناديق البريد الإلكتروني وأقسام التعليقات على مواقع الويب. هذا لا يؤدي إلى إضعاف تجربة المستخدم فحسب، بل أيضًا يقوض الثقة في المحتوى عبر الإنترنت. وبالتالي، ستتضاءل الثقة بالأفكار والفرص القيمة التي توفرها المواقع الإلكترونية الحقيقية والصادقة.
تجدر الإشارة إلى أنه لم يتم استخدام الذكاء الاصطناعي في كتابة مقالنا هذا.
انقر هنا للاطلاع على المزيد من الأخبار التقنية.