برامج وتطبيقات

معيار جديد يختبر سرعة تشغيل نماذج الذكاء الاصطناعي

كشفت مجموعة لقياس الذكاء الاصطناعي تُسمى MLCommons يوم الاثنين عن نتائج اختبارات جديدة تحدد مدى سرعة الأجهزة المتطورة في تشغيل نماذج الذكاء الاصطناعي.

وكانت شريحة إنفيديا أفضلها أداءً في الاختبارات التي أُجريت على واحد من نماذج اللغة الكبيرة، وجاءت أشباه الموصلات التي تنتجها شركة إنتل في المرتبة الثانية بفارق ضئيل.

ويعتمد معيار MLPerf الجديد على نموذج للذكاء الاصطناعي يحتوي على 6 مليارات عامل متغير تلخص مقالات شبكة (سي إن إن) CNN الإخبارية.

ويحاكي المعيار جزء «الاستدلال» من معالجة بيانات الذكاء الاصطناعي، الذي يعمل على الجزء الذي يعد الأساس ويأتي قبل توليد النص.

ويعتمد أفضل أداء من إنفيديا لمعيار الاستدلال على زهاء ثمانية من شرائح (إتش100) H100 الرائدة، مع الإشارة إلى أن الشركة سيطرت على سوق تدريب نماذج الذكاء الاصطناعي، لكنها لم تسيطر على سوق الاستدلال بعد.

وقال (ديف سالفاتور)، مدير تسويق الحوسبة المتسارعة في إنفيديا: «ما تشهده هو أننا نقدم أداءً قياديًا في المجالات جميعها، وأؤكد أننا نقدم هذا الأداء القيادي في أعباء العمل جميعها».

ويعتمد نجاح إنتل على شرائح (جودي2) Gaudi2 التي تنتجها وحدة (هابانا) Habana التي استحوذت عليها الشركة في عام 2019. وكان نظام (جودي2) أبطأ بنسبة 10 في المئة تقريبًا مقارنةً بنظام إنفيديا.

وقال (إيتان ميدينا)، المدير التنفيذي للعمليات في (هابانا): «نحن فخورون جدًا بنتائج الاستدلال، حيث نُظهر ميزة الأداء السعري لنظام (جودي2)».

وتقول إنتل إن نظامها أرخص من نظام إنفيديا، وهو يتوفر تقريبًا بسعر الجيل الأخير نفسه من أنظمة إنفيديا، ولكنها رفضت مناقشة السعر الدقيق للشريحة.

ورفضت شركة إنفيديا مناقشة سعر شريحتها، ولكنها قالت يوم الجمعة إنها تخطط قريبًا لطرح ترقية برمجية من شأنها مضاعفة أداء نظامها في معيار MLPerf.

زر الذهاب إلى الأعلى