أخبار الإنترنت

غرفة التجارة الأمريكية تدعو إلى تنظيم الذكاء الاصطناعي

نشرت غرفة التجارة الأمريكية، تقريرًا يدعو إلى تنظيم تقنية الذكاء الاصطناعي في البلاد. ويحث التقرير -وفقًا لما نقلته رويترز– صانعي القرار وقادة الأعمال على إنشاء إطار تنظيمي لضمان استخدام التقنية بمسؤولية لتقليص خطره على الأمن القومي وبشكلٍ لا يؤثر في نمو هذه الصناعة. ويُعتبر هذا موقفًا نادرًا من غرفة التجارة التي عُرِفَت بمواقفها المناهضة للتنظيم.

ويأتي التقرير بينما يتزايد الاهتمام في الولايات المتحدة ودول أخرى بتقنيات الذكاء الاصطناعي، ومنها برنامج ChatGPT الذي يعتبر من البرامج الناشئة التي تتمتع بقدرتها على الإجابة بسرعة عن مجموعة واسعة من الاستفسارات، إلا أن تأثيره في الأمن القومي والتعليم يُثير المخاوف بين البرلمانيين الأمريكيين.

ويشير التقرير إلى توقعاتٍ بأن يضيف الذكاء الاصطناعي 13 تريليون دولار إلى النمو الاقتصادي العالمي بحلول عام 2030، وأنه قدم مساهمات هامة مثل رصد حرائق الغابات لتسريع استجابة مسؤولي إدارة الطوارئ. ومع ذلك، يشدد التقرير على ضرورة الاستعداد للانتشار المتزايد لهذه التكنولوجيا ومخاطرها المحتملة.

وتؤكد الغرفة في تقريرها أن “كل شركة وجهاز حكومي سيستخدم الذكاء الاصطناعي في غضون 20 عامًا”. ويعتبر هذا التقرير جزءاً من لجنة الذكاء الاصطناعي التي أنشأتها الغرفة العام الماضي، والتي تعترف بالدور الحاسم الذي ستلعبه الشركات في استخدام وإدارة هذه التقنية.

ومع الوقت الذي تُطالب فيه بمزيد من التنظيم، أشارت غرفة التجارة إلى ضرورة تفادي تطوير إطار تنظيمي يُطبّق بالشكل نفسه على الجميع، وأكدت على ضرورة اتباع منهج مرن يضع القواعد والممارسات الموصى بها لكل صناعة من الصناعات حسب الحاجة.

وما زال مجال الذكاء الاصطناعي يفتقر إلى وجود قوانين ناظمة له عالميًا، وهو ما أثار مخاوف الكثيرين بسبب استخدامه لأغراض مثل الغش في كتابة الواجبات المدرسية أو لكتابة الأخبار الكاذبة، كما ذكرت تقارير أن القراصنة يستخدمونه لمساعدتهم في كتابة البرمجيات الخبيثة.

وفي هذا الصدد، أطلق الاتحاد الأوروبي في عام 2021 مشروعًا لتنظيم الذكاء الاصطناعي باسم The AI Act كأول مشروع من نوعه في العالم لوضع القوانين الناظمة لتقنيات الذكاء الاصطناعي بهدف إلى الوصول إلى قوانين قد تصل إلى منع الشركات من استخدام الذكاء الاصطناعي في مجالات معينة.

ووفقًا لما يرد في الموقع الإلكتروني الخاص بالقانون المُقترح، تُقسَم تطبيقات الذكاء الاصطناعي إلى ثلاثة أنواع:

  • غير مقبولة: وهي التطبيقات المُستخدمة لمراقبة وتتبُّع الأفراد، وهي ما يسعى القانون المُقترح إلى منعه تمامًا.
  • عالية الخطورة: كالتطبيقات التي تُستخدم لمراجعة السّير الذاتية وتصنيفها بشكل آلي، وهي تطبيقات يجب أن تخضع لمُتطلبات قانونية معينة.
  • كل ما عدا ذلك: وهي أية تطبيقات لا تنتمي إلى التصنيفين السابقين، إذ سيُسمح لها العمل من دون تنظيم.

وتخشى العديد من الشركات المطوّرة لتطبيقات الذكاء الاصطناعي أن تؤثر القوانين التنظيمية المحتملة في عملها، فالتنظيم قد يعني وجود متطلبات قانونية قاسية؛ على الشركات الالتزام بها وهو ما يزيد من التكاليف ويُبطئ من سرعة التطوير.

وفي حال لجأت الولايات المتحدة أو الاتحاد الأوروبي إلى طرح مثل هذه القوانين، فهذا يعني إجبار الشركات على تعديل إمكانيات برامجها وربما تقليصها كي تتوافق مع ما تفرضه القوانين الجديدة.

زر الذهاب إلى الأعلى