Share

أوبن إيه آي قد تعلّق إطلاق نموذج للذكاء الاصطناعي إذا اعتُبر خطراً للغاية

أنشأت شركة "أوبن إيه آي" فريقاً مخصصاً لتحديد المخاطر المتعلقة بالذكاء الاصطناعي ومنعها
أوبن إيه آي قد تعلّق إطلاق نموذج للذكاء الاصطناعي إذا اعتُبر خطراً للغاية
سيستند الفريق إلى إطار عمل تحدده وثيقة نُشرت الاثنين تحدد نطاقه وإجراءاته

أنشأت شركة OpenAI “أوبن إيه آي” فريقاً مخصصاً لتحديد المخاطر المتعلقة بالذكاء الاصطناعي ومنعها، ما قد يؤدي إلى تعليق إطلاق نموذج للذكاء الاصطناعي إذا اعتُبر خطراً للغاية.

ويأتي هذا الإعلان بعد شهر من إقالة مبتكر واجهة المحادثة “تشات جي بي تي” سام ألتمان الذي أعيد إلى منصبه بعد بضعة أيام.

التطوير السريع لـ”أوبن إيه آي”

وذكرت وسائل إعلام أميركية أن أعضاء في مجلس الإدارة أخذوا على ألتمان تفضيله التطوير السريع لـ”أوبن إيه آي” حتى لو كان ذلك على حساب انتهاكات محتملة قد يتحمل مسؤوليتها الذكاء الاصطناعي.

وسيقود فريق الاستعداد الباحث في علوم الكمبيوتر ألكسندر مادري، وهو في إجازة من معهد ماساتشوستس للتكنولوجيا MIT (إم آي تي)، حيث يعمل أستاذاً، بحسب رسالة نشرها الأكاديمي الاثنين على منصة إكس (تويتر سابقا).

وسيستند الفريق إلى إطار عمل تحدده وثيقة نُشرت الاثنين تحدد نطاقه وإجراءاته.

اقرأ أيضا: بعد صراع حول مخاطر الذكاء الاصطناعي.. سام ألتمان يعود إلى OpenAI وهذه القصة الكاملة

النماذج “الطليعية”

وستهتم هذه المجموعة الجديدة بشكل أساسي بما يسمى بالنماذج “الطليعية” (frontier models)، التي تُطوّر حالياً وتتفوق بقدراتها على البرامج الأكثر تقدماً في مجال الذكاء الاصطناعي.

وقال مسؤولو “أوبن إيه آي” في الوثيقة “نعتقد أن الدراسة العلمية لمخاطر الكوارث الناشئة عن الذكاء الاصطناعي غير كافية على الإطلاق”، معتبرين أن إنشاء إطار عمل من شأنه أن “يساعد في سد هذه الفجوة”.

وسيعمد الفريق إلى تقويم كل نموذج جديد وتحديد مستوى المخاطر الناجمة عنه في أربع فئات رئيسية.

ويتعلق الأول بالأمن السيبراني وقدرة النموذج على تنفيذ هجمات معلوماتية واسعة النطاق.

إنشاء خليط كيميائي

أما الثاني فسيقيس ميل البرنامج للمساعدة في إنشاء خليط كيميائي، أو كائن حي (مثل فيروس) أو سلاح نووي، وجميع العناصر من المحتمل أن تكون ضارة بالبشر.

وتتعلق الفئة الثالثة بقدرة النموذج على الإقناع، أي إلى أي مدى يمكن أن يؤثر على السلوك البشري.

وترتبط الفئة الأخيرة من المخاطر بالاستقلالية المحتملة للنموذج، أي تحديد ما إذا كان يمكنه أن يفلت من سيطرة المبرمجين الذين أنشأوه.

التعديلات على “أوبن إيه آي”

وبمجرد تحديد المخاطر، ستُقدّم إلى المجموعة الاستشارية للسلامة، وهو كيان جديد سيرفع توصيات إلى سام ألتمان أو أي شخص يعيّنه.

وسيقرر رئيس “أوبن إيه آي” بعد ذلك التعديلات الممكنة التي ستُجرى على النموذج لتقليل المخاطر المرتبطة به.

وسيُبقى مجلس الإدارة على اطلاع وبإمكانه أن يبطل قراراً صادراً عن الإدارة. وهذا هو الضمان الممنوح للمديرين، بعد الفصول المثيرة لمغادرة سام ألتمان الموقتة التي أثارت انتقادات شككت بمشروعية مجلس الإدارة.

انقر هنا للاطلاع على المزيد من أخبار التكنولوجيا.

مواضيع ذات صلة: