Nvidia تكشف شريحة ذكاء اصطناعى جديدة.. كل ما تحتاج معرفته
وسيتم إطلاق أول شرائح H200 في الربع الثاني من عام 2024، وتقول Nvidia إنها تعمل مع “مصنعي الأنظمة العالمية ومقدمي الخدمات السحابية” لإتاحتها ، ورفضت المتحدثة باسم نفيديا كريستين أوشياما التعليق على أرقام الإنتاج.
ويبدو أن H200 يشبه إلى حد كبير H100 خارج ذاكرته ، لكن التغييرات التي طرأت على ذاكرتها تؤدي إلى ترقية ذات معنى ، وحدة معالجة الرسومات الجديدة هي أول وحدة تستخدم مواصفات ذاكرة جديدة وأسرع تسمى HBM3e.
وبذلك يصل عرض النطاق الترددي لذاكرة وحدة معالجة الرسومات إلى 4.8 تيرابايت في الثانية، مقارنة بـ 3.35 تيرابايت في الثانية على H100، كما تصل سعة الذاكرة الإجمالية إلى 141 جيجابايت مقارنة بـ 80 جيجابايت لسابقتها.
ويعمل تكامل ذاكرة HBM الأسرع والأكثر شمولاً على تسريع الأداء عبر المهام التي تتطلب الكثير من الحساب بما في ذلك نماذج الذكاء الاصطناعي التوليدية وتطبيقات [الحوسبة عالية الأداء] مع تحسين استخدام وحدة معالجة الرسومات وكفاءتها.
وقال إيان باك، نائب رئيس Nvidia لمنتجات الحوسبة عالية الأداء، في عرض فيديو له تم تصميم H200 أيضًا ليكون متوافقًا مع نفس الأنظمة التي تدعم بالفعل H100s ، تقول Nvidia إن موفري الخدمات السحابية لن يحتاجوا إلى إجراء أي تغييرات حيث يقومون بإضافة H200s إلى المزيج ، وستكون الأذرع السحابية لكل من Amazon وGoogle وMicrosoft وOracle من بين أوائل الشركات التي تقدم وحدات معالجة الرسومات الجديدة في العام المقبل.
ويأتي إعلان Nvidia في الوقت الذي لا تزال فيه شركات الذكاء الاصطناعي تبحث بشدة عن شرائح H100 الخاصة بها، ويُنظر إلى شرائح Nvidia على أنها الخيار الأفضل لمعالجة الكميات الهائلة من البيانات اللازمة لتدريب وتشغيل أدوات الصور التوليدية ونماذج اللغات الكبيرة بكفاءة.
وتعتبر الرقائق ذات قيمة كافية لدرجة أن الشركات تستخدمها كضمان للحصول على القروض ، ومن لديه H100s هو موضوع شائعات في وادي السيليكون ، وكانت الشركات الناشئة تعمل معًا فقط لمشاركة أي إمكانية الوصول إليها على الإطلاق.
اكتشاف المزيد من النشاما للألعاب
اشترك للحصول على أحدث التدوينات المرسلة إلى بريدك الإلكتروني.