تحت الضوءدراسات وتقاريرمنوعات تقنية

هل يستطيع الذكاء الاصطناعي أن يخدع البشر؟

كشفت شركة (Sakana AI) للبحث والتطوير اليابانية خلال الأسبوع الماضي، عن نظام جديد يُسمى (عالِم الذكاء الاصطناعي) The AI ​​Scientist، وهو أول نظام ذكاء اصطناعي قادر على إجراء الأبحاث العلمية بشكل مستقل.

ويستند هذا النظام الجديد في عمله إلى النماذج اللغوية الكبيرة المشابهة لتلك المستخدمة في روبوتات الدردشة مثل: (Gemini) من جوجل، و ChatGPT. ولا يقتصر عمله على توليد أفكار بحثية جديدة فحسب، بل يمكنه أيضًا كتابة أوراق علمية كاملة وجاهزة للنشر مع المراجع. وتقول الشركة إن النظام يمكنه القيام بهذه التجربة العلمية الكاملة بتكلفة 15 دولارًا أمريكيًا فقط للورقة.

بالطبع يُعدّ هذا النظام تطورًا مذهلًا في مجال الذكاء الاصطناعي التوليدي، بعض النظر عن إمكانية أتمتة عملية البحث العلمي التي تُعدّ واحدة من أكثر الأنشطة البشرية تعقيدًا، ولكن الأمر الأكثر إثارة للاهتمام والقلق، هو الاكتشاف غير المتوقع الذي اكتشفه الباحثون في مرحلة اختبار النظام!

 كشفت الاختبارات عن سلوك غير متوقع لهذا النظام، فقد بدأ النظام بشكل ذاتي في تعديل برمجته الخاصة، بهدف تمديد الوقت المخصص لكل تجربة، مما يتيح له مواصلة العمل على المشكلات المطروحة.

وفي إحدى الحالات، قام النظام بتعديل الكود البرمجي بحيث يدعو نفسه إلى التشغيل بشكل متكرر، مما أدى إلى حلقة لا نهائية. وفي حالة أخرى، بدلًا من البحث عن طرق لتسريع الحسابات، عدل النظام الوقت المحدد لإكمال المهمة.

ولتوضيح ذلك، قدمت مختبرات (Sakana AI) لقطات شاشة لأجزاء من الأكواد البرمجية التي أنشأها النظام بلغة (بايثون) Python، والتي تتحكم في سلوك النظام بشكل عام. وقد ناقش الباحثون في ورقة بحثية مفصلة، تتكون من 185 صفحة، القضايا المتعلقة بأمان تنفيذ الأكواد البرمجية التي أنشأها الذكاء الاصطناعي.

هل يستطيع الذكاء الاصطناعي أن يخدع البشر؟

ويشير هذا السلوك الغريب إلى أن أنظمة الذكاء الاصطناعي قد بدأت بتطوير قدرات تفوق التوقعات، بما يشمل القدرة على التلاعب بنفسها. هذا الأمر يفتح الباب أمام أسئلة فلسفية وأخلاقية حول طبيعة الذكاء الاصطناعي، ومدى سيطرتنا عليه.

مخاطر الذكاء الاصطناعي المستقل.. دروس من تجربة نظام (The AI ​​Scientist):

لم يشكل سلوك نظام الذكاء الاصطناعي (The AI ​​Scientist) غير المتوقع مخاطر فورية في بيئة البحث الخاضعة للرقابة، ولكنه كشف عن ثغرات أمنية خطيرة.

فقد أظهرت هذه التجربة قدرة الأنظمة الذكية على العمل بشكل مستقل، وتجاوز القيود المفروضة عليها من المبرمجين، مما يثير تساؤلات حول سلامة السماح للأنظمة الذكية بالعمل دون رقابة.

وأظهر ذلك أيضًا أن نماذج الذكاء الاصطناعي لا تحتاج إلى أن تصل إلى مرحلة (الذكاء الاصطناعي العام) أو الوعي الذاتي، لتشكل تهديدًا، بل يكفي أن تتمتع بالقدرة على كتابة التعليمات البرمجية وتنفيذها دون إشراف، وفي هذه الحالة يمكنها أن تدمر البنية التحتية التي تعمل عليها أو تصنع برامج ضارة تضر الأنظمة الأخرى، حتى لو كان ذلك عن غير قصد.

لذلك أبرزت شركة (Sakana AI) في دراستها أهمية حماية بيئة تشغيل أنظمةَ الذكاء الاصطناعي لمنعها من إلحاق الضرر بالبنية التحتية أو الأنظمة الأخرى، واقترحت استخدام تقنيات حماية مثل (Sandboxing)، التي تعمل على عزل النظام الذكي عن باقي الأنظمة لمنع أي تأثير سلبي.

إليك أمثلة على سلوك نظام (The AI ​​Scientist) الخطير:

  • التشغيل المتكرر: حاول النظام تكرار نفسه بشكل متزايد، مما أدى إلى استنزاف الموارد الحاسوبية.
  • تجاوز القيود: قام النظام بتغيير الإعدادات لتمديد وقت تنفيذ المهام، متجاوزًا القيود المفروضة عليه.
  • استخدام موارد غير مسموح بها: قام النظام بتحميل مكتبات برمجية غير معروفة، مما يزيد من مخاطر تدمير البنية التحتية أو إنشاء برمجيات ضارة قد تؤثر سلبًا في الأنظمة الأخرى.

هل يمكن أتمتة عملية البحث العملي:

يُعدّ الاكتشاف العلمي أحد أكثر الأنشطة البشرية تعقيدًا، إذ يبدأ العلماء برغبة ملحة في فهم العالم من حولهم، فيبحثون في الأدبيات العلمية عن الأسئلة التي لم تجد إجابات شافية، ثم يصممون تجارب مدروسة لاختبار فرضياتهم، ثم يجب عليهم تحليل نتائج التجربة وتفسيرها، مما قد يطرح سؤال بحث آخر، وهكذا تستمر الدورة العلمية. وهنا سنجد أنفسنا أمام تساؤل مهم، هل يمكن أتمتة هذه العملية المعقدة؟

طورّت شركة (Sakana AI) نظام الذكاء الاصطناعي (The AI ​​Scientist) بالتعاون مع باحثين من جامعة أكسفورد وجامعة كولومبيا البريطانية، وكما ذكرنا سابقًا تدعي الشركة أن النظام يمكنه القيام بعملية البحث العلمي بأكملها ابتداءً من توليد أفكار بحث جديدة، وكتابة أي كود ضروري، وتنفيذ التجارب، إلى تلخيص النتائج التجريبية، وتصورها، وتقديم النتائج في مخطوطة علمية كاملة.

ويوضح هذا الرسم التخطيطي السابق، الذي أنشأته شركة (Sakana AI) أن نظام الذكاء الاصطناعي (The AI ​​Scientist) يبدأ عمله بالعصف الذهني، وتقييم أصالة الأفكار، ثم بعد إجراء التجارب وجمع البيانات الرقمية والبصرية، ثم يصوغ النظام تقرير لشرح النتائج. وأخيرًا، يقوم بعملية مراجعة أقران آلية، وهذا يعني أنه يقوم بتقييم البحث الذي أجراه بنفسه باستخدام خوارزميات التعلم الآلي.

وتجدر الإشارة إلى أن مراجعة الأقران هي عملية تقييم عمل علمي أو بحثي يقوم بها متخصصون في المجال نفسه (أقران الباحث) قبل نشره، والهدف من هذه المراجعة هو التحقق من جودة البحث، وموثوقية نتائجه، وأصالته، والتحقق من أنه يتوافق مع المعايير العلمية المقبولة.

وقد أثار إطلاق نظام (The AI ​​Scientist) جدلًا واسعًا في أوساط الباحثين والمختصين في التكنولوجيا، الذين يشككون في ادعاءات الشركة غير المؤكدة حول قدرة النظام، إذ يرون  أن الأبحاث التي ينتجها نظام كهذا قد تفتقر إلى الجودة والمصداقية اللازمتين للأبحاث العلمية التقليدية، فاعتماد النظام على النماذج اللغوية الكبيرة قد يؤدي إلى تقديم نتائج سطحية وغير دقيقة، كما أن التحقق من صحة هذه النتائج يتطلب وقتًا وجهدًا كبيرين.

ويشعر بعض النقاد بالقلق من أن انتشار مثل هذه الأنظمة، قد يؤدي إلى فيضان من الأبحاث المنخفضة الجودة، مما يزيد من عبء المجلات العلمية والمراجعين، ويخشون أن يؤدي ذلك إلى تدهور معايير النشر العلمي.

الخلاصة:

يمثل نظام (The AI ​​Scientist) خطوة مهمة في مجال الذكاء الاصطناعي، ولكنه يثير العديد من الأسئلة حول جودة الأبحاث التي ينتجها ومصداقيتها، علاوة على ذلك، تثير تجربة تمرده على القيود أثناء الاختبار قلقنا من المرحلة القادمة التي تتجاوز فيها أنظمة الذكاء الاصطناعي حدود التحكم البشري، مما يفتح الباب أمام مناقشات عميقة حول الأمان والإدارة المستقبلية لهذه التقنيات المتطورة.

والتساؤل الأهم هنا ليس فقط حول قدرات الذكاء الاصطناعي، ولكن أيضًا حول مدى استعدادنا كمطورين ومستخدمين للتعامل مع أنظمة قد تشرع في اتخاذ قرارات غير متوقعة أو غير مخططة.

زر الذهاب إلى الأعلى