منوعات تقنية

OpenAI تفقد باحثيها بسبب مخاوف من الذكاء الاصطناعي العام

شهدت شركة OpenAI حديثًا مغادرة نحو نصف باحثيها في مجال سلامة الذكاء الاصطناعي العام (AGI) والذكاء الاصطناعي الفائق (ASI)، وفقًا لما ذكره باحث سابق في الشركة.

ويُرجح أن تكون هذه الاستقالات ناتجة عن خلافات حول كيفية إدارة المخاطر المرتبطة بتطوير تلك التقنيات.

وصرّح دانيال كوكوتاجلو، وهو باحث سابق في مجال سلامة الذكاء الاصطناعي في OpenAI، لمجلة “فورتشن” بأن نحو نصف باحثي الشركة في مجال السلامة قد غادروا، ومنهم قادة بارزون في هذا المجال.

ومع أن الباحث لم يتطرق إلى الأسباب المحددة لكافة الاستقالات، فإنه يعتقد أن هذه الخطوات تطابق آراءه الخاصة في أن OpenAI قريبة من تطوير الذكاء الاصطناعي العام (AGI)، لكنها ليست مستعدة للتعامل مع كل ما يترتب عليه.

وأشار الباحث إلى أن هذا الوضع أدى إلى “تأثير سلبي” في الباحثين الذين يحاولون نشر أبحاث حول مخاطر الذكاء الاصطناعي العام داخل الشركة، مشيرًا إلى تزايد التأثير الذي تمارسه قطاعات الاتصالات والضغط السياسي في الشركة فيما يُعد مناسبًا للنشر.

وكانت هناك أيضًا تقارير أشارت إلى أن الإقالة المؤقتة للرئيس التنفيذي للشركة، سام ألتمان، ارتبطت بمخاوف تتعلق بالسلامة.

ومن الجدير بالذكر أن الذكاء الاصطناعي العام (AGI) هو مفهوم يشير إلى نوع من الذكاء الاصطناعي الذي يتمتع بقدرات معرفية واسعة وشاملة، مما يجعله قادرًا على فهم أي مهمة فكرية وتعلمها مثل البشر، وهو يشبه الذكاء البشري في مرونته وقدرته على التكيف مع مختلف المواقف والمشكلات، كما يختلف عن الذكاء الاصطناعي الضيق، وهو النوع السائد حاليًا من الذكاء الاصطناعي المصمم لأداء مهام محددة بعد التدريب على كميات كبيرة من البيانات التي تخصها.

ووفقًا للباحث، فقد استقال حديثًا نصف الباحثين في سلامة الذكاء الاصطناعي العام في الشركة، ولم يتبقَ منهم سوى 16 باحثًا من أصل 30 باحثًا كانوا يعملون في الشركة قبل موجة الاستقالات، مشيرًا إلى أن مغادرة أولئك الباحثين الشركة لم تكن نتيجة تنسيق بينهم، بل كانت قرارات فردية.

وشملت الاستقالات البارزة يان هندريك كيرشنر، وكولين بيرنز، وجيفري وه، وجوناثان أوساتو، وستيفن بيلز، ويوري بيردا، وتودور ماركوف، وجون شلمان الذي يُعد أحد مؤسسي الشركة.

وكانت استقالة إيليا سوتسكيفر ويان ليك ذات أهمية خاصة؛ لأنهما من كبار العلماء في الشركة، وقد كانا يقودان فريق “التوافق الفائق” المعني بسلامة أنظمة الذكاء الاصطناعي المستقبلية، وقد حلّت الشركة ذلك الفريق بعد استقالتهما.

وانتقل ليك وشلمان إلى أدوار بحثية في مجال السلامة لدى شركة “أنثروبيك” المنافسة لـ OpenAI، وقد صرّح شلمان عند مغادرته الشركة بأنه يعتقد أن الذكاء الاصطناعي العام سيكون ممكنًا في غضون سنتين إلى ثلاث سنوات، في حين أسّس سوتسكيفر شركته الخاصة لتطوير ذكاء اصطناعي فائق آمن.

زر الذهاب إلى الأعلى