تتحمل OpenAI المسؤولية ضد “هلوسة” الذكاء الاصطناعي من خلال تطبيق طريقة جديدة لتدريب النماذج اللغوية الضخمة القائمة على الذكاء الاصطناعي.
كانت أبحاث أنظمة الذكاء الاصطناعي التوليدي (GenAI) “التي اعتبرت متخيّلة ولا تستند إلى الحقائق موضع نقاش حاد، وهي إلى ذلك تعدّ أحد مكامن الضعف الرئيسية في منتج نال استحسانًا كبيرًا. حظي روبوت الدردشة ChatGPT من OpenAI المدعوم من GPT-3 و GPT-4 أكثر من 100 مليون مستخدم شهريًا في شهرين فقط على إطلاقه. ووصلت قيمة الشركة الناشئة إلى حوالي 29 مليار دولار، بعد أن تجاوزت استثمارات “مايكروسوفت” 13 مليار دولار، بالإضافة إلى عمليات تمويل من شركات أخرى مملوكة للقطاع الخاص في OpenAI. وحصلت مايكروسوفت والشركات الخاصة مجتمعة على حوالي 30 في المئة من الأسهم في Open AI.
تتضمن هذه الهلوسة أخطاء في التواريخ والمنطق وإدخال الاستشهادات والاقتباسات والمراجع المبنية على أوهام تامة.
هلوسة على مستوى الذكاء الاصطناعي التوليدي
لا تنطبق الهلوسة على ChatGPT فحسب، بل تنسحب كذلك على منافسيه من التطبيقات مثل روبوت Bard من غوغل الذي يقوم هو الآخر باختلاق معلومات يسوّق لها على أنها حقيقية.
مع استمرار تقدم روبوتات الدردشة التي تعمل بالذكاء الاصطناعي، تزداد المخاوف بشأن احتمال وجود معلومات مضللة أو محتوى ضار مع مخاطر خلق المحتوى الناتج عن الذكاء الاصطناعي تصوّرات مضللة.
وقال باحثو OpenAI في التقرير: “حتى النماذج الحديثة عرضة لإنتاج الأكاذيب – فهي تظهر ميلًا لاختراع الحقائق في لحظات انعدام اليقين”.
“تمثل هذه الهلوسة إشكالية بصورة خاصة في المجالات التي تتطلب تفكيرًا متعدد الخطوات، ذلك أن خطأ منطقياً واحداً يكفي لعرقلة حلو واستنتاجات أكثر شمولية”.
حل هلوسات الذكاء الاصطناعي التوليدي
يعمل OpenAI على حل المسائل التي تتعلق بالمنطق وصعوبة التحليل من خلال تدريب نماذج الذكاء الاصطناعي لمكافأة نفسها على كل خطوة تفكير فردية صحيحة خلال محاولتها التوصل إلى إجابات، بدلاً من مكافأة استنتاج نهائي صحيح وحسب. ويُعرف ذلك باسم التفكير الشبيه بالمنطق الإنساني، ويسمّى “الإشراف على العملية”، بدلاً من “الإشراف على النتيجة”.
اقرأ أيضاً: الجانب المظلم لـِ شات جي بي تي: استهداف المخترقين للمستخدمين
وطرح OpenAI مجموعة بيانات من 800 ألف تصنيفات بشرية استخدمها لتدريب النماذج المذكورة في الورقة البحثية، حسبما صرّح كارل كوبي، باحث الرياضيات في OpenAI لوسائل إعلامية. أشار فريق البحث أيضًا إلى أن نموذج المكافأة يعمل بشكل أفضل في جميع المجالات.
وأعرب العديد من الخبراء عن شكوكهم في أنه حتى تتم مراجعة النتائج من قبل النظراء، فإنها ستبقى مجرد ملاحظات في بيئات معزولة.
مقال يستند على هلوسة الذكاء الاصطناعي التوليدي بتسبّب بدعوى قضائية
يمكن أن يؤدي نشر محتوى قائم على الذكاء الاصطناعي التوليدي إلى التسبب في مشاكل قانونية. فقط اسأل هذا الصحفي الذي لم يذكر اسمه والذي يكتب لموقع ويب على الإنترنت وطلب من ChatGPT أن يقدم له ملخصًا لقضية قانونية بين “مؤسسة سكند أمندمننت” وروبرت فيرجسون”. أخفق روبوت الدردشة القاءم على الذكاء الاصطناعي تمامًا بتقديم إجابة تزعم أن مذيعًا إذاعيًا في جورجيا يُدعى مارك والترز متورط بالقضية من خلال اتهامه باختلاس أموال تابعة لمؤسسة “سكند أمندمنت”.
اختلق ChatGPT أن “والترز اختلس الأموال للنفقات الشخصية دون إذن أو سداد، وقام بالتلاعب بالسجلات المالية والبيانات المصرفية لإخفاء أنشطته، كما فشل في تقديم تقارير مالية دقيقة وفي الوقت المناسب”.
لم يتوقف روبوت الذكاء الاصطناعي عند هذا الحد، عندما طُلب منه إنتاج النص الدقيق للدعوى التي يذكر اسم والترز، أنتج روبوت الدردشة فقرة مزيفة غير موجودة في الشكوى الفعلية، بالإضافة إلى حتى إخفاقه في تقديم الرقم الصحيح للقضية.
بعد نشر المقال المذكور، رفع والترز دعوى تشهير ضد ChatGPT مدعيا أن OpenAI تصرفت بإهمال من خلال تلفيق معلومات كاذبة ومضللة.
مثل هذه القضية قد تتكرر غير مرة، بحيث يتم اتخاذ إجراءات قانونية شديدة اللهجة ضد صانعي GenAI بسبب هلوسة منتجهم.
عندما يتمكن المدعون المستقبليون من رفع قضيتهم بشكل فعال إلى قاضٍ يزعم فقد وظيفة أو عقدًا أو أي دخل آخر من جرّاء هلوسة أحد روبوتات الدردشة، سيكون من الممكن لهؤلاء الضحايا المحتملين الفوز بقضاياهم.
وفي وقت سابق من العام 2023، هدد بريان هود، العمدة الإقليمي في أستراليا، بمقاضاة OpenAI بعد أن وصف الروبوت له بأنه مجرم مدان متورط في فضيحة رشوة.
أيضًا، اتُهم أستاذ القانون بجامعة جورج واشنطن جوناثان تورلي، إلى جانب العديد من الأساتذة الآخرين زورًا بالتحرش الجنسي من قبل ChatGPT في في مقال صدر في واشنطن بوست. وكان الروبوت قد استشهذ باقتباسات مضللة لدعم ادعاءاته التي تفتقر للصحة.
هلوسات خطيرة بطلها الذكاء الاصطناعي التوليدي
تم استخدام نماذج اللغوية الضخمة على نطاق واسع في الرعاية الصحية مع الشركات الطبية الناشئة من خلال توظيف أدوات مدعومة بالذكاء الاصطناعي في ملايين من مراكز الرعاية الطبية. يتم استخدام هده النماذج كذلك لاكتشاف الأدوية، وتوفر هذه الهلوسة بشكل أساسي استجابات، وكثير منها غير صحيح ومختلق. وتستخدم الهلوسة في ذلك مستوى عالٍ من الثقة اللغوية بحيث أن المبتدئين لن يكونوا قادرين على التمييز بين الصح والخطأ. وبعد، هل يقع الأطباء والباحثون في مغبة الذكاء الاصطناعي التوليدي، بحيث يجعلهم يطلبون من مرضاهم استخدام أدوية مغلوطة وجرعات خاطئة؟ وحده الزمن كفيل بإخبارنا.
انقر هنا للاطلاع على المزيد من التقارير حول الذكاء الاصطناعي التوليدي.