تحت الضوءدراسات وتقاريرمنوعات تقنية

الذكاء الاصطناعي يعاني من مشكلة التحيز البشري

تقول الدراسات إنه كلما زاد الاعتماد على أنظمة الذكاء الاصطناعي كلما ظهر الكثير من المخاطر والتساؤلات حول دقتها، وأبرز تلك التساؤلات يدور حول ما إذا كانت أنظمة الذكاء الاصطناعي تتحيز مثل البشر؟

ولكن الآلات ليس لديها تحيز فعلي، والذكاء الاصطناعي لا يريد لشيء أن يكون صحيحًا أو خاطئًا لأسباب لا يمكن تفسيرها منطقيًا، ولكن للأسف التحيز البشري موجود في أنظمة التعلم الآلي بسبب البيانات أو الخوارزميات المستخدمة في تدريبها فقد تتضمن البيانات تحيزًا بنسبة ما، وحتى الآن لم يحاول أي شخص حل هذه المشكلة الضخمة.

وقد أجرى مؤخرًا فريق من العلماء من التشيك وألمانيا مجموعة أبحاث لتحديد تأثير التحيز المعرفي للإنسان على تفسير المخرجات المستخدمة لإنشاء قواعد التعلم الآلي، وتُشير نتائج الباحثين إلى أنهم اختبروا أنظمة تعلم آلي متعددة، ووجدوا أن صفات التحيز البشري تتواجد في  أنظمة الذكاء الاصطناعي.

ويوضح تقرير الفريق البحثي كيف أن 20 تحيزًا معرفيًا مختلفًا يمكن أن يغيروا من تطور قواعد التعلم الآلي ويقترح أساليب للتخلص من هذا التحيز.

وفقًا لتقرير الباحثين قد يكمن التحيز في التعليمات البرمجية والخوارزميات سواء قصد المطورون ذلك أم لا، ولكن عندما تصبح هذه الأنواع من الأخطاء البشرية مخبأة داخل أجزاء من الذكاء الاصطناعي هذا يعني أن تحيزنا هو المسئول عن اختيار قاعدة التدريب التي تشكل إنشاء نماذج التعلم الآلي ليدل ذلك على أننا لا ننشىء ذكاءًا اصطناعيًا بل نضع أخطاءنا داخل صندوق أسود ولا نعلم كيف سيستخدمه ضدنا!

وبناء على ذلك يتغير مشهد المسؤولية الشخصية كلما زاد الاعتماد على أنظمة الذكاء الاصطناعي، فقريبًا سيتم تشغيل معظم المركبات بواسطة الآلات وعدد كبير من العمليات الجراحية والإجراءات الطبية ستتم بواسطة الروبوتات، وهذا سيضع مطوري أنظمة الذكاء الاصطناعي في المقدمة عند حدوث مأساة وكعادة البشر دائمًا ما يبحثون عن إلقاء اللوم على شخص ما يتحمل جميع الأخطاء.

يقترح الباحثون معالجة الأمر لكل تحيز معرفي قاموا بفحصه، وبالنسبة للعديد من المشاكل كان الحل بسيطًا يتمثل في تغيير طريقة تمثيل البيانات، كما يَفترض الفريق على سبيل المثال تغيير مخرجات الخوارزميات بحيث يتم استخدام أعداد طبيعية بشكل أكبر من النسب قد يقلل إلى حد كبير من احتمال إساءة تفسير نتائج معينة.

ولكن للأسف لا يوجد حل جذري لهذه المشكلة في معظم الأوقات لا نعرف أننا متحيزون حيث نعتقد أننا أذكياء أو بديهين أو لا نفكر في ذلك وهناك أكثر بكثير من 20 تحيزًا معرفيًا مختلفًا لابد أن يهتم بهم مبرمجي التعلم الآلي، حتى عندما تكون الخوارزميات مثالية والنواتج غير قابلة للتغيير فإن تحيزاتنا المعرفية تجعل تفسيرنا للبيانات غير موثوق به في أحسن الأحوال فكل شخص لديه هذه التحيزات بدرجة أو بأخرى، والأمر في النهاية يتعلق بقلة الأبحاث حول كيفية تأثير التجير على تفسير البيانات.

ووفقًا لفريق البحث: على حد معرفتنا، لم يتم بعد مناقشة التحيزات المعرفية فيما يتعلق بتفسير نتائج التعلم الآلي، وهكذا بدأنا هذه المراجعة للبحوث المنشورة في العلوم المعرفية بقصد إعطاء أساس نفسي للتغيرات التي تظهر في خوارزميات تعلم القواعد الحثية وطريقة إيصال نتائجها حددت مراجعتنا لعشرون تحيزًا معرفيًا والآثار التي يمكن أن تؤدي إلى أخطاء منهجية عندما عندما يتم تفسير القواعد المستخلصة بالحث.

يُعد الذكاء الاصطناعي تكنولوجيا بالغة القوة لا يُمكن إنكار تأثيرها لذلك يتوجب توخي الحذر الشديد في تطويرها واستخدامها والالتزام بتوظيفها لعلاج مشكلات مجتمعية، وتطويرها بطريقة تكفل الثقة وتحمي الإنسانية من أية تداعيات سلبية، لذلك من المهم أن يكمل الباحثون في جميع أنحاء العالم على هذا العمل ويكتشفوا أساليب فعالة لتجنب التحيز المعرفي في التعلم الآلي تمامًا لأن الذكاء الاصطناعي ليس أكثر من مكبر للصوت البشري، والمعرفة السيئة لابد أنّ تصنع روبوتات سيئة.

زر الذهاب إلى الأعلى