أعلنت إنفيديا حديثًا عن وحدة معالجة الرسوميات HGX H200 Tensoer Core، التي تستخدم بنية Hopper لتسريع تطبيقات الذكاء الاصطناعي. إنها متابعة لوحدة معالجة الرسوميات H100، التي صدرت العام الماضي، وكانت سابقًا أقوى شريحة تعتمد على الذكاء الاصطناعي من إنفيديا. وإذا نُشِرت على نطاق واسع، فقد تؤدي إلى نماذج ذكاء اصطناعي أقوى، وأوقات استجابة أسرع للنماذج الموجودة مثل شات جي بي تي في المستقبل القريب.

وفقًا للخبراء، فإن الافتقار إلى قوة الحوسبة كان العائق الرئيسي لتقدم الذكاء الاصطناعي العام الماضي، ما أعاق نشر نماذج الذكاء الاصطناعي الحالية وأبطأ تطوير نماذج جديدة. إن النقص في وحدات معالجة الرسوميات القوية التي تعمل على تسريع نماذج الذكاء الاصطناعي هو السبب إلى حد بعيد، تتمثل إحدى طرق تخفيف اختناق الحوسبة في إنتاج المزيد من الرقائق، لكن يمكنك أيضًا جعل شرائح الذكاء الاصطناعي أقوى. هذا النهج قد يجعل H200 منتجًا جذابًا لموفري الخدمات السحابية.

ما فائدة H200؟ رغم الحرف (G) في اسم «وحدة معالجة الرسوميات» GPU، فإن وحدات معالجة الرسوميات في مراكز البيانات المماثلة ليست مخصصة للرسوميات عادةً. تُعد وحدات معالجة الرسوميات مثالية لتطبيقات الذكاء الاصطناعي، إذ تؤدي عددًا كبيرًا من عمليات ضرب المصفوفات المتوازية، التي تُعد ضرورية لعمل الشبكات الرئيسية. إنها ضرورية في الجزء التدريبي لبناء نموذج الذكاء الاصطناعي وجزء «الاستدلال»، إذ يُدخل الأشخاص المدخلات في نموذج الذكاء الاصطناعي ويعرض النتائج.

قال إيان باك، نائب رئيس قسم في إنفيديا: «لإنشاء ذكاء باستخدام تطبيقات الذكاء الاصطناعي والحوسبة عالية الأداء التوليدية، تجب معالجة كميات هائلة من البيانات بكفاءة وبسرعة عالية باستخدام ذاكرة GPU كبيرة وسريعة، ومع إنفيديا H200، أصبحت منصة الحوسبة الفائقة في مجال الذكاء الاصطناعي الرائدة في الصناعة، أسرع في حل بعض أهم التحديات في العالم».

مثلًا، صرحت شركة أوبن إيه بأن موارد وحدة معالجة الرسوميات منخفضة، ما يسبب تباطؤ شات جي بي تي، ويجب أن تعتمد الشركة على تحديد الأسعار لتقديم أي خدمة عمومًا. نظريًا، فإن استخدام H200 قد يمنح نماذج لغة الذكاء الاصطناعي الحالية التي تُشغل شات جي بي تي مساحة أكبر لخدمة المزيد من العملاء.

وفقًا لإنفيديا، فإن H200 هو أول وحدة معالجة رسوميات تقدم ذاكرة HBM3e، التي بفضلها يوفر H200 ذاكرةً بسعة 141 جيجابايت وعرض نطاق ترددي يبلغ 4.8 تيرابايت في الثانية، وهو ما تقول إنفيديا إنه يزيد بمقدار 2.4 ضعف عرض النطاق الترددي للذاكرة لإنفيديا A100 الذي أصدرته عام 2020. رغم عمر A100، ما زال الطلب عليه مرتفعًا بسبب نقص الرقائق القوية.

ستجعل إنفيديا جهاز H200 متاحًا بعدة أشكال، تتضمن لوحات خادم إنفيديا HGX H200 بتكوينات رباعية وثمانية الاتجاهات، متوافقة مع كل من الأجهزة والبرامج الخاصة بأنظمة HGX H100. سيكون متاحًا أيضًا في الرقاقة Grace Hopper Superchip GH200 التي تجمع بين وحدة المعالجة المركزية ووحدة معالجة الرسوميات في حزمة واحدة لمزيد من جاذبية الذكاء الاصطناعي.

ستكون خدمات موقع أمازون وخدمة جوجل السحابية ومايكروسوفت آزور وخدمة أوراكل السحابية أول موفري الخدمات السحابية الذين ينشرون المثيلات المستندة إلى H200 بدءًا من العام المقبل، وتقول إنفيديا إن H200 سيكون متاحًا -من الشركات المصنعة للأنظمة العالمية ومقدمي الخدمات السحابية- بدءًا من العام المقبل، في الربع الثاني من عام 2024.

كانت شركة إنفيديا تراوغ حكومة الولايات المتحدة بشأن قيود التصدير على وحدات معالجة الرسوميات القوية الخاصة بها، التي تحد من مبيعاتها في الصين. العام الماضي، أعلنت وزارة التجارة الأمريكية عن قيود تهدف إلى «إبعاد التكنولوجيات المتقدمة عن الأيدي الخطأ» مثل الصين وروسيا. استجابت شركة إنفيديا بإنشاء شرائح جديدة للالتفاف على تلك الحواجز، لكن حديثًا حظرت الولايات المتحدة هذه الرقائق أيضًا.

ذكرت رويترز أن إنفيديا عادت إلى ذلك مرة أخرى، إذ قدمت ثلاث شرائح جديدة للذكاء الاصطناعي للسوق الصينية، وهو ما يمثل ربع إيرادات شرائح مركز بيانات إنفيديا. تندرج اثنتان من الرقائق تحت القيود الأمريكية، والثالثة في «المنطقة المحايدة» التي قد يكون مسموحًا بها بموجب ترخيص. نتوقع رؤية المزيد من التحركات ذهابًا وإيابًا بين الولايات المتحدة و إنفيديا في الأشهر المقبلة.

اقرأ أيضًا:

شركة أوبن إي آي (OpenAI) المشغلة لروبوت الدردشة تشات جي بي تي (Chat GPT) تنفق 700 ألف دولار يوميًا ومهددة بالإفلاس

خوارزميات برمجية جديدة تساهم في تسريع معالجة البيانات ، لكن كيف ؟

ترجمة: محمد فواز السيد

تدقيق: باسل حميدي

مراجعة: أكرم محيي الدين

المصدر