مايكروسوفت تطور أداة جديدة لكشف التحيز في أنظمة الذكاء الاصطناعي

5٬650

تعمل مايكروسوفت على تطوير أداة جديدة يمكنها اكتشاف التحيز في خوارزميات أنظمة الذكاء الاصطناعي بهدف مساعدة الشركات على استخدام الذكاء الاصطناعي دون التعرض لخطر التحيز ضد أشخاص بعينهم دون قصد.

وتتسابق شركات التكنولوجيا الكبرى لبيع تقنيات التعلم الآلي الجاهزة التي يمكن الوصول إليها عبر السحابة الإلكترونية التابعة لها. ومع زيادة عدد العملاء الذين يستخدمون هذه الخوارزميات لأتمتة الخطوات المهمة والقرارات فإن قضية التحيز ستصبح أمراً مهمًا.

والتحيز يمكن أن يتسلل بسهولة إلى نماذج التعلم الآلي عن طريق البيانات أو الخوارزميات المستخدمة في تدريبها حيث قد تتضمن تلك البيانات تحيزًا بنسبة ما، وحتى الآن لم يحاول أي شخص حل هذه المشكلة الضخمة. لذلك فإن طرق أتمتة الكشف عن التحيز يمكن أن تصبح جزءاً قيماً من مجموعة أدوات الذكاء الاصطناعي.

وصف ريتش كاروانا -وهو باحث في مايكروسوفت يعمل على أداة الكشف عن التحيز- الأمر بإنه سيصبح عبارة عن “لوحة تحكم” يمكن للمهندسين تطبيقها على نماذج الذكاء الاصطناعي المدربة لتجنب خطر تحيزها.

وقال  ريتش كاروان لمجلة MIT Technology Review: “إن أشياء مثل الشفافية والوضوح والتفسير جديدة بما فيه الكفاية للمجال الذي لا يملك إلا القليل من الخبرة الكافية لمعرفة كل شيء نبحث عنه وجميع أساليب التحيز التي تكمن في السلوك البشري”.

التحيز في خوارزميات الذكاء الاصطناعي يعتبر مصدر قلق متزايد للعديد من الباحثين وخبراء التكنولوجيا، ولما كانت الخوارزميات تُستَخدم لأتمتة القرارات المهمة، فإن هناك خطراً يتمثل في أن التحيز يمكن أن يصبح آلياً ، ويتم نشره على نطاق واسع ويصعب على الضحايا اكتشافه.

وقال كاروانا: “إن منتج مايكروسوفت الذي سيعمل على كشف  التحيز سيساعد باحثين في مجال الذكاء الاصطناعي على التقاط المزيد من حالات عدم الإنصاف وإن لم يكن كلها. بالطبع لا يمكننا أن نتوقع الكمال – سيكون هناك دائما بعض التحيز غير المكتشف أو الذي لا يمكن القضاء عليه – الهدف هو أن نفعل ما بوسعنا”.

وأضاف: “إن أهم شيء يمكن أن تقوم به الشركات الآن هو تثقيف القوى العاملة لديها حتى تكون على دراية بالطرق التي لا تعد ولا تحصى والتي يمكن أن يظهر فيها التحيز بشكل واضح، كما إنها تخلق أدوات لتسهيل فهم النماذج والكشف عنها بسهولة أكبر”.

والجدير بالذكر أن إعلان مايكروسوفت هذا يأتي بعد فترة قصيرة بعدما أعلنت شركة فيسبوك عن أداتها الخاصة للكشف عن التحيز في مؤتمرها للمطورين السنوي Facebook F8 الذي عقد في الثاني من شهر مايو/أيار الحالي. وتقوم الأداة التي يطلق عليها Fairness Flow بإطلاق تحذير إذا ما قامت الخوارزمية بحكم غير عادل حول شخص ما على أساس عرقه أو جنسه أو عمره. يقول فيسبوك إنه بحاجة إلى Fairness Flow لأن المزيد من الأشخاص في الشركة يستخدمون الذكاء الاصطناعي لاتخاذ قرارات مهمة.

وقد علق على هذا الأمر بن يو الأستاذ في جامعة كاليفورنيا في بيركلي قائلًا: “إن الأدوات الجديدة من فيسبوك ومايكروسوفت تبدو خطوة مهمة في الاتجاه الصحيح، ولكنها قد لا تكون كافية”.

واقترح إنه يجب على الشركات الكبيرة أن يكون لديها خبراء خارجيين يقومون بمراجعة خوارزميات الذكاء الاصطناعي التابعة لهم من أجل إثبات أنهم غير متحيزين”.

ويُعد التحيز المعرفي في الخوارزميات أحد أكبر مشاكل تقنيات الذكاء الاصطناعي حتى الآن، لذلك من المهم أن يُكمل الباحثون في جميع أنحاء العالم العمل على كشف أدوات وأساليب فعالة لكشف التحيز في أنظمة التعلم الآلي تمامًا، لأن الذكاء الاصطناعي ليس أكثر من مكبر للصوت البشري، والمعرفة السيئة لابد أنّ تصنع روبوتات سيئة.

أنت هنا لأنك مهتم بمتابعة الأخبار التقنية .. اشترك بالنشرة البريدية
أنت هنا لأنك مهتم بمتابعة الأخبار التقنية .. اشترك بالنشرة البريدية
آخر المستجدات في بريدك الإلكتروني في صباح كل يوم
ندعوك أيضًا لمتابعة حساباتنا على مواقع التواصل الاجتماعي