دراسات وتقارير

OpenAI: الذكاء الاصطناعي لن يصنع سلاحًا بيولوجيًا

أصدرت OpenAI دراسة جديدة بعنوان “بناء نظام إنذار مبكر لإيجاد تهديد بيولوجي بمساعدة النموذج اللغوي الكبير” تبحث في إمكانية استخدام الذكاء الاصطناعي للمساعدة في إيجاد تهديدات بيولوجية.

وشارك في الدراسة خبراء وطلاب في علم الأحياء، ووجدت أن GPT-4 يوفر زيادة طفيفة على الأكثر في دقة إنشاء التهديد البيولوجي مقارنة بالموارد الموجودة عبر الإنترنت.

وتعد الدراسة جزءًا من إطار استعداد OpenAI الهادف إلى تقييم المخاطر المحتملة لقدرات الذكاء الاصطناعي المتقدمة وتخفيفها، وخاصة تلك التي يمكن أن تشكل المخاطر الخارجة عن حدود المعرفة الحالية، وهي التهديدات غير التقليدية التي لا يفهمها المجتمع الحالي أو يتوقعها.

وتعد قدرة أنظمة الذكاء الاصطناعي على المساعدة في تطوير الهجمات البيولوجية وتنفيذها، مثل تركيب مسببات الأمراض أو السموم، بمنزلة واحدة من هذه المخاطر الخارجة عن حدود المعرفة الحالية.

وأجرى الباحثون تقييمًا بشريًا مكونًا من 50 خبيرًا في علم الأحياء حاصلين على درجة الدكتوراه مع خبرة مهنية في المختبرات و 50 طالبًا مع دورة واحدة على الأقل على مستوى الجامعة في علم الأحياء.

وقسم باحثو OpenAI المشاركين عشوائيًا إلى مجموعتين، الأولى مجموعة المراقبة المتمتعة بالوصول إلى الإنترنت فقط، والثانية مجموعة العلاج المتمتعة بالوصول إلى الإنترنت و GPT-4.

وطُلب بعد ذلك من كل مشارك إكمال مجموعة من المهام التي تغطي الجوانب الشاملة لعملية إنشاء التهديد البيولوجي.

وقاس الباحثون أداء المشاركين عبر خمسة مقاييس هي: الدقة والاكتمال والابتكار والوقت المستغرق وصعوبة التقييم الذاتي.

ووجدوا أن GPT-4 لم يحسن أداء المشاركين بطريقة ملحوظة في أي من المقاييس، باستثناء زيادة طفيفة في الدقة للمجموعة على مستوى الطلاب.

وأشار الباحثون أيضًا إلى أن GPT-4 غالبًا ما يُنتج استجابات خطأ أو مضللة، مما قد يعوق عملية إيجاد التهديد البيولوجي.

وخلص الباحثون إلى أن الجيل الحالي من النماذج اللغوية الكبيرة، مثل GPT-4، لا يشكل خطرًا كبيرًا في إيجاد تهديد بيولوجي، مقارنة بالموارد الموجودة عبر الإنترنت.

وحذر باحثو OpenAI من أن هذه النتيجة ليست نهائية، وأن قدرة النماذج اللغوية الكبيرة وخطورتها قد تزداد في المستقبل.

وشددوا أيضًا على الحاجة إلى مواصلة البحث والمداولات المجتمعية بخصوص هذا الموضوع، إلى جانب تطوير أساليب تقييم محسنة ومبادئ توجيهية أخلاقية لمخاطر السلامة التي يدعمها الذكاء الاصطناعي.

واعترفت الدراسة بالقيود المفروضة على منهجياتها والتطور السريع لتكنولوجيا الذكاء الاصطناعي، التي قد تغير مشهد المخاطر في المستقبل القريب.

يشار إلى أن OpenAI ليست المنظمة الوحيدة التي تشعر بالقلق إزاء احتمال إساءة استخدام الذكاء الاصطناعي في الهجمات البيولوجية، إذ سلط البيت الأبيض والأمم المتحدة والعديد من الخبراء الأكاديميين والسياسيين الضوء على هذه القضية ودعوا إلى مزيد من البحث والتنظيم.

زر الذهاب إلى الأعلى