مشرعو أوروبا يصوتون على قواعد أشد صرامة للذكاء الاصطناعي
وافق مشرعون في الاتحاد الأوروبي يوم الأربعاء على تغييرات في مسودة قواعد الذكاء الاصطناعي لتشمل الآن حظر استخدام التقنية في المراقبة البيومترية، وإجبارَ أنظمة الذكاء الاصطناعي التوليدي، مثل: (شات جي بي تي) ChatGPT على الكشف عن المحتوى الذي تولِّده التقنية.
ويُعتقد أن التعديلات على القانون، الذي اقترحته مفوضية الاتحاد الأوروبي والذي يهدف إلى حماية المواطنين من مخاطر التقنية، قد يؤدي إلى صدام مع دول الاتحاد الأوروبي التي تعارض فرض حظر استخدام التقنية في المراقبة البيومترية.
وبسبب الاعتماد السريع على (شات جي بي تي) التابع لشركة (أوبن أي آي)، وعلى غيره من روبوتات الدردشة، أثار كبار علماء التقنية ومديري الشركات التنفيذيين، ومن ذلك: (إيلون ماسك) من تسلا، و(سام ألتمان) من (أوبن أي آي)، المخاوف من المخاطر المحتملة التي قد يتعرض لها المجتمع.
وقال (براندو بينيفي)، المقرر المشارك لمشروع القانون: «بينما تدق شركات التقنية الكبرى جرس الإنذار بشأن إبداعاتها، مضت أوروبا قدمًا واقترحت استجابة ملموسة للمخاطر التي بدأ الذكاء الاصطناعي يفرضها».
ومن بين التغييرات الأخرى، يطالب المشرعون في الاتحاد الأوروبي أي شركة تستخدم أدوات لإنشاء المحتوى بالكشف عن المواد المحمية بحقوق الطبع والنشر المستخدمة في تدريب أنظمتها، كما يطالبون الشركات التي تعمل على «تطبيق عالي الخطورة» بتقييم الأثر على الحقوق الأساسية وتقييم الأثر البيئي.
وسيتعين على أنظمة، مثل: (شات جي بي تي) الكشف عن أن المحتوى الذي يقدمه هو من إنشاء الذكاء الاصطناعي، كما سيتعين عليها المساعدة في التمييز بين ما يسمى بصور التزييف العميق والصور الحقيقية وضمان الحماية ضد المحتوى غير القانوني.
ورحبت شركتا مايكروسوفت وآي بي إم بالخطوة الأخيرة التي اتخذها المشرعون في الاتحاد الأوروبي، لكنهم يتطلعون إلى مزيد من التنقيح للتشريع المقترح.
وقال متحدث باسم مايكروسوفت: «نعتقد أن الذكاء الاصطناعي يتطلب حواجز تشريعية وجهود مواءمة على المستوى الدولي وإجراءات تطوعية هادفة من جانب الشركات التي تطور الذكاء الاصطناعي وتنشره».
وسيتعين على المشرعين الآن طرح التفاصيل مع دول الاتحاد الأوروبي قبل أن تصبح مسودة القواعد تشريعات نافذة.
وبينما تعترف معظم شركات التقنية الكبرى بالمخاطر التي تشكلها التقنية الصاعدة، فإن شركات أخرى، مثل: ميتا، التي تمتلك فيسبوك وإنستاجرام وواتساب، قد رفضت التحذيرات بشأن المخاطر المحتملة.
وقال كبير علماء الذكاء الاصطناعي في ميتا (يان لوكون) في مؤتمر بالعاصمة الفرنسية باريس يوم الأربعاء: «الذكاء الاصطناعي جيد في جوهره؛ لأن تأثيره يتمثل في جعل الناس أكثر ذكاءً».
وفي مشروع قانون الاتحاد الأوروبي الحالي، أُضيفت أنظمة الذكاء الاصطناعي، التي يمكن استخدامها للتأثير في الناخبين ونتائج الانتخابات والأنظمة التي تستخدمها منصات التواصل الاجتماعي مع أكثر من 45 مليون مستخدم، إلى قائمة المخاطر العالية. وسوف تندرج شركتا ميتا وتويتر تحت هذا التصنيف.
وقال رئيس الصناعة في الاتحاد الأوروبي (تييري بريتون): «يثير الذكاء الاصطناعي الكثير من الأسئلة، وذلك اجتماعيًا وأخلاقيًا واقتصاديًا. ولكن الآن ليس الوقت مناسبًا للضغط على أي «زر إيقاف مؤقت». فعلى العكس من ذلك، يتعلق الأمر بالتصرف السريع وتحمل المسؤولية».
وقال إنه سيسافر إلى الولايات المتحدة الأسبوع المقبل للقاء المدير التنفيذي لشركة ميتا (مارك زوكربيرج) والمدير التنفيذي لشركة (أوبن أي آي) (سام ألتمان) لمناقشة مسودة قانون الذكاء الاصطناعي.
وأعلنت المفوضية عن مسودة القواعد قبل عامين، وذلك بهدف وضع معيار عالمي لمفتاح تقني لكل صناعة وعمل تقريبًا، حيث يسعى الاتحاد الأوروبي إلى اللحاق بقادة الذكاء الاصطناعي في الولايات المتحدة والصين.
