منوعات تقنية

OpenAI تشكل فريقًا لدراسة «التهديدات النووية» للذكاء الاصطناعي

أعلنت شركة (أوبن أي آي) OpenAI يوم الخميس أنها شكّلت فريقًا جديدًا لتقييم نماذج الذكاء الاصطناعي والتحقيق فيها، وذلك بهدف الحماية مما تصفه بـ «المخاطر الكارثية».

وسيقود الفريق، المسمى (الاستعداد) Preparedness، (ألكسندر مادري)، وهو مدير مركز تقنية (التعلم الآلي القابل للنشر) بمعهد MIT. وكان مادري قد انضم إلى (أوبن أي آي) في شهر أيار/ مايو الماضي بصفته «رئيس قسم الاستعداد»، وفق ما تُظهر صفحته في موقع (لينكدإن) LinkedIn.

وستكون المسؤوليات الرئيسة لفريق (الاستعداد) هي تتبع مخاطر أنظمة الذكاء الاصطناعي المستقبلية والتنبؤ بها والحماية منها، وذلك بدءًا من قدرتها على إقناع البشر وخداعهم؛ كما هو الحال في هجمات التصيد الاحتيالي، إلى قدراتها على توليد التعليمات البرمجية الضارة.

وتبدو بعض فئات المخاطر التي سوف يقوّمها فريق (الاستعداد) مستبعدة مقارنةً بغيرها، فعلى سبيل المثال، أدرج منشور (أوبن أي آي) التهديدات «الكيميائية والبيولوجية والإشعاعية والنووية» بوصفها مجالات مثيرة للقلق عندما يتعلق الأمر بنماذج الذكاء الاصطناعي.

ويُعدّ (سام ألتمان)، المدير التنفيذي لشركة (أوبن أي آي)، أحد أبرز المتشائمين فيما يتعلق بالتقنية، وغالبًا ما يُعرِب عن مخاوفه من أن الذكاء الاصطناعي «قد يؤدي إلى انقراض البشر».

وتقول الشركة إنها منفتحة أيضًا على دراسة «أقل المجالات وضوحًا وأكثرها رسوخًا» المتعلقة بمخاطر التقنية الناشئة.

وبالتزامن مع إطلاق فريق (الاستعداد)، طلبت (أوبن أي آي) من المجتمع أفكارًا لدراسات المخاطر مع جائزة قدرها 25,000 دولار ووظيفة في فريق (الاستعداد) عبر الإنترنت لأفضل عشرة طلبات مقدمة.

وتقول (أوبن أي آي) إن فريق (الاستعداد) سيكون مكلفًا أيضًا بصياغة «سياسة تطوير مستنيرة للمخاطر» مهمتها توضيح نهج الشركة لبناء التقويمات لنماذج الذكاء الاصطناعي وأدوات المراقبة، وإجراءات الشركة لتخفيف المخاطر، وهيكل الإدارة الخاص بها للرقابة عبر عمليات التطوير للنموذج.

وتقول الشركة إنها تهدف إلى استكمال أعمالها الأخرى في مجال سلامة الذكاء الاصطناعي، مع التركيز في مرحلتي النشر السابق واللاحق للنموذج.

وقالت (أوبن أي آي) في منشورها: «نحن نؤمن بأنه يمكن لنماذج التقنية، التي ستتجاوز القدرات الموجودة حاليًا في أكثر النماذج الحالية تقدمًا، إفادة البشرية جمعاء».

وأضافت: «لكنها تشكل أيضًا مخاطر شديدة على نحو متزايد. ونحن بحاجة إلى التأكد من أن لدينا الفهم والبنية التحتية اللازمة لسلامة أنظمة الذكاء الاصطناعي ذات القدرة العالية».

ويُشار إلى أن الكشف عن فريق (الاستعداد) يأتي بالتزامن مع قمة كبرى عقدتها حكومة المملكة المتحدة بشأن سلامة الذكاء الاصطناعي، ثم إنه يأتي بعد أن أعلنت (أوبن أي آي) أنها ستشكل فريقًا لدراسة الأشكال الناشئة من الذكاء الاصطناعي «الفائق الذكاء» وتوجيهها والسيطرة عليها.

زر الذهاب إلى الأعلى