برامج وتطبيقات

OpenAI تحذّر من تعلّق المستخدمين عاطفيًا بـ ChatGPT

كشفت شركة OpenAI عن تفاصيل اختبارات السلامة لنموذج الذكاء الاصطناعي الجديد GPT-4o، والمخاوف من وضع الصوت الجديد.

وكانت الشركة قد بدأت حديثًا إطلاق الوضع الصوتي الجديد لعدد محدود من المشتركين في ChatGPT. ومع أن هذا الوضع لاقى استحسانًا كبيرًا من المستخدمين، لكنه في الوقت نفسه أثار الكثير من المخاوف بسبب كون التجربة الصوتية في ChatGPT مشابهة للتفاعل البشري الواقعي إلى حد بعيد.

وفي تحليل السلامة الذي أصدرته الشركة، أقرت OpenAI بأن هذا الصوت الذي يشبه الصوت البشري قد يؤدي إلى “تعلق المستخدمين عاطفيًا” بـ ChatGPT.

وتأتي هذه التحذيرات ضمن “بطاقة النظام” التي أصدرتها الشركة لنموذج GPT-4o، وهي وثيقة تقنية تحدد ما تعتقد الشركة أنها مخاطر مرتبطة بالنموذج، بالإضافة إلى تفاصيل حول اختبارات السلامة، والجهود التي تبذلها لتقليل المخاطر المحتملة.

وقد واجهت OpenAI تدقيقًا في الأشهر الأخيرة بعد استقالة عدد من الموظفين العاملين على مخاطر الذكاء الاصطناعي على المدى الطويل، واتهم بعضهم لاحقًا OpenAI بالمخاطرة بنحو غير ضروري، وكتم أصوات المعارضين في سباقها لتسويق الذكاء الاصطناعي.

وأشارت OpenAI إلى مجموعة واسعة من المخاطر في تقريرها الأخير، ومنها إمكانية أن يضخّم GPT-4o التحيزات المجتمعية، وينشر المعلومات المضللة، ويساعد في تطوير الأسلحة الكيميائية أو البيولوجية، كما كشفت الشركة عن تفاصيل الاختبارات المصممة لضمان عدم محاولة نماذج الذكاء الاصطناعي التحرر من ضوابطها أو خداع الناس أو التخطيط لأعمال كارثية.

ويثني بعض الخبراء الخارجيين على OpenAI لشفافيتها، لكنهم يقولون إنها يمكن أن تذهب إلى أبعد من ذلك.

وتُنتقد بطاقة النظام التي أصدرتها OpenAI لنموذج GPT-4o؛ لأنها لا تتضمن تفاصيل واسعة النطاق حول بيانات تدريب النموذج أو من يملك هذه البيانات. 

ويشير آخرون إلى أن المخاطر يمكن أن تتغير مع استخدام نماذج الذكاء الاصطناعي في العالم الحقيقي؛ لأن العديد من المخاطر تظهر فقط عند طرح نماذج الذكاء الاصطناعي لاحقًا للمستخدمين.

وتسلّط بطاقة النظام الجديدة الضوء على مدى سرعة تطوّر مخاطر الذكاء الاصطناعي مع تطوير مزايا جديدة قوية مثل وضع الصوت المتقدم؛ فعندما كشفت الشركة عن وضع الصوت، الذي يمكنه الاستجابة بسرعة ودقة والتفاعل بنحو يبدو طبيعيًا، رأى العديد من المستخدمين أنه عرض الشركة بدا مبالغًا فيه، وواجهت الشركة لاحقًا انتقادات من الممثلة سكارليت جوهانسون، التي اتهمتها بتقليد أسلوب كلامها.

ولاحظ باحثو OpenAI حالات من كلام المستخدمين مع ChatGPT عبّرت عن شعور بالارتباط العاطفي بالنموذج، وتقول الشركة إن ذلك قد يؤدي إلى زيادة ثقة المستخدمين بمخرجات النموذج حتى عند “الهلوسة” بمعلومات غير صحيحة.

ومع مرور الوقت، قد يؤثر ذلك في علاقات المستخدمين بالآخرين. وتقول الشركة: “قد يبني المستخدمون علاقات اجتماعية مع الذكاء الاصطناعي، مما يقلل حاجتهم إلى التفاعل البشري، وقد يفيد ذلك الأفراد الذين يشعرون بالوحدة، ولكنه قد يؤثر في العلاقات الصحية”، وأفادت OpenAI بأنها تراقب تلك الارتباطات العاطفية من كثب.

زر الذهاب إلى الأعلى