أخبار قطاع الأعمالتحت الضوءدراسات وتقاريررأي وحوار

سيلزفورس تقدم 5 مبادئ للذكاء الاصطناعي الموثوق

كشفت شركة (سيلزفورس) Salesforce اليوم عن المبادئ الرئيسية التي يجب اعتمادها في مجال تطوير الذكاء الاصطناعي الموثوق.

وأكدت الشركة على لسان (تيري نيكول)، نائب الرئيس لمنطقة الشرق الأوسط وشمال أفريقيا، أنها تعمل باستمرار على إدماج المبادئ والضوابط الأخلاقية في كافة منتجاتها، وذلك بهدف مساعدة العملاء على الابتكار ومواجهة أي تحديات محتملة استباقيًا، لتواصل بذلك نهجها في جميع الابتكارات التي تطرحها.

وفي ضوء الفرص والتحديات الضخمة الناشئة في هذا المجال، قال (تيري نيكول) إن مجموعة المبادئ التوجيهية الجديدة تُعدّ خطوةً متقدمةً مقارنةً بما كانت تعتمده الشركة في السابق من مبادئ في تطوير الذكاء الاصطناعي الموثوق مع إيلاء التركيز هنا على التطوير والتنفيذ المسؤول لتقنيات الذكاء الاصطناعي التوليدي، مشيرًا إلى أن هذه المبادئ لا تزال تشهد المزيد من العمل لمواكبة الخطوات الأولية التي تسير عليها تقنيات الذكاء الاصطناعي التحولية، وأكد في هذا السياق التزام الشركة بالتعلم، والاستفادة من التجارب، والتعاون مع الآخرين من أجل التوصل إلى الحلول.

وفيما يلي مجموعة المبادئ الخمس لضمان موثوقية الذكاء الاصطناعي:

الدقة

يجب تقديم نتائج في الذكاء الاصطناعي يمكن التثبت منها، وتُحقِّق الموازنة بين معدلات الدقة والصحة والإرجاع في النماذج، وذلك بتمكين العملاء من تدريب تلك النماذج باستخدام بياناتهم الخاصة.

ويجب فتح قنوات التواصل بين الأطراف جميعها في حالات عدم اليقين بشأن سلامة ردود الذكاء الاصطناعي، وتمكين المستخدمين من التأكد بأنفسهم من هذه الردود.

ويمكن القيام بذلك من خلال إيراد المصادر، وتبرير الأسباب وراء الردود التي يقدمها الذكاء الاصطناعي، مثل: اقتفاء جميع المراحل الاستدلالية التي اتبعها من أجل التوصل إلى الردود، مع تسليط الضوء على الجوانب التي يجب التحقق منها مرة أخرى، مثل: الإحصاءات والتوصيات والتواريخ، ونشر ضوابط تحول دون تنفيذ بعض الأفعال آليًا بالكامل، مثل: تنفيذ البرمجيات ضمن البيئة الإنتاجية دون إشراف بشري.

السلامة

كما هو حال نماذج الذكاء الاصطناعي جميعها، يجب بذل قصارى الجهد من أجل التخفيف من التحيز، واللغة المسيئة، والمخرجات الضارة من خلال إجراء تقييمات بشأن التحيز، ومسببات الردود، ومتانة النماذج مع إطلاق اختبارات محايدة لتعقب واكتشاف الثغرات.

ويجب أيضًا حماية خصوصية أي معلومات تعريف شخصية موجودة في البيانات المستخدمة في التدريب، وإنشاء ضوابط للوقاية من وقوع أضرار إضافية، مثل: فرض نشر البرمجيات في بيئة معزولة بدلًا من الدفع بها تلقائيًا إلى البيئة الإنتاجية.

الأمانة

يجب احترام مصادر البيانات والتأكد من الحصول على الموافقة عند استخدام البيانات، مثل: المصادر المفتوحة أو مصادر المستخدم. ويجب التحلي بالشفافية وذلك بالإشارة إلى أن منشأ المحتوى هو الذكاء الاصطناعي حينما تُقدّم ذاتيًا، كما في حالة استجابة المساعد الافتراضي للمستهلك واستخدام الوسوم المميزة.

التمكين

يجب التمييز بين الحالات التي يستحسن فيها أتمتة العمليات بالكامل والحالات الأخرى التي يجب أن يمارس فيها الذكاء الاصطناعي دورًا داعما للإنسان.

ويجب تحديد أفضل توازن بين الرغبة في دعم القدرات البشرية لأقصى درجة وجعل حلول هذا المجال متاحة في متناول الجميع، مثل: إنشاء نصوص بديلة للتعريف بمحتوى الصور لمن لا يستطيع رؤيتها.

الاستدامة

بالتزامن مع العمل على إنشاء نماذج أكثر دقة، يجب تطوير نماذج في الذكاء الاصطناعي تمتاز بحجم مناسب قدر الإمكان من أجل تقليل البصمة الكربونية. وفي سياق نماذج هذا الذكاء، فإن الحجم الأكبر لا يعني دائمًا الأفضل وذلك لأنه في بعض الحالات تتفوق النماذج الأصغر والأفضل تدريبًا على النماذج الأكبر والأقل تدريبًا.

زر الذهاب إلى الأعلى