AWS ve NVIDIA, büyük makine öğrenimi modellerini eğitmek ve üretici yapay zeka uygulamaları oluşturmak için yeni nesil altyapıya odaklanan bir iş birliği yapıyor

PAYLAŞ
AWS ve NVIDIA, büyük makine öğrenimi modellerini eğitmek ve üretici yapay zeka uygulamaları oluşturmak için yeni nesil altyapıya odaklanan bir iş birliği yapıyor
  • 0
  • 0
  • 4 dakika da oku
  • +
  • -

EC2 UltraClusters ’da kullanılan yeni Amazon EC2 P5 bulut sunucuları, üretici suni akıl eğitimini ve büyük ölçekte çıkarımı süratlendirmek için NVIDIA Hopper GPU ’lardan faydalanacak biçimde optimize edildi

Bir Amazon işletmeyi NASDAQ: AMZN olan Amazon Web Services AWS ve NVIDIA NASDAQ: NVDA giderek karışıklaşan büyük dil modellerini LLM ’ler eğitmek ve üretici suni akıl uygulamaları geliştirmek için optimize edilmiş, dünyanın en ölçeklenebilir, isteğe bağlı suni akıl AI altyapısını oluşturmaya odaklanan çok istikametli bir iş birliği yaptıklarını duyurdu.

Bu iş birliği, NVIDIA H100 Tensor Core GPU ’lar tarafından desteklenen yeni nesil Amazon Elastic Compute Cloud Amazon EC2 P5 bulut sunucularını ve AWS ’in en büyük derin bilme modellerini oluşturmak ve eğitmek için 20 exaFLOP ’a kadar operasyon performansı sağlayacak son teknoloji ağ bağlantısını ve ölçeklenebilirliğine içeriyor. P5 bulut sunucuları, 3.200 Gbps düşük gecikme süreli, yüksek bant genişlikli ağ aktarım sürati sağlayarak alıcıların EC2 UltraClusters ’da 20.000 H100 GPU ’ya kadar ölçeklendirme yapmasına imkân tanıyan ve böylece suni akıl için istek üzerine süper bilgisayar sınıfı performansa ulaşabilmelerini sağlayan AWS ’in ikinci nesil Elastik Yapı Bağdaştırıcısı EFA, Elastic Fabric Adapter ağ bağlantısından faydalanan ilk GPU tabanlı bulut sunucusu olacak. Bu teknolojiyi kullanmak için sabırsızlanan firmalar arasında, ürün geliştirmelerini süratlendirmek ve alıcılarına yeni empatik suni akıl tabanlı tecrübeler sunmak isteyen dünya çapında tanınan firmalardan biri olan Pinterest yer alıyor. 

AWS CEO ’su Adam Selipsky mevzuyla alakalı olarak şunları söyledi: “AWS ve NVIDIA, AI/ML suni akıl/makine öğrenimi, grafik, reyin ve HPC yüksek performanslı bilişim gibi muhtelif uygulamalara müteveccih, istek üzerine, büyük ölçekli, uygun maliyetli, GPU tabanlı çözümler sunmak için 12 seneyi aşkın vakittir iş birliği yapıyor. Bugün bir hayli alıcının makine öğrenimi eğitimi iş yüklerini 10.000 ’den fazla GPU ’ya ölçeklendirdiği de göz önüne alınırsa, AWS her nesilde ölçeklenebilirlik hudutlarını zorlayan GPU tabanlı bulut sunucuları sunma mevzusunda eşsiz bir tecrübeye sahip. İkinci nesil EFA, alıcıların P5 bulut sunucularını 20.000 ’den fazla NVIDIA H100 GPU ’ya ölçeklendirmelerine imkân sağlayarak startup ’lardan büyük işletmelere kadar geniş bir yelpazede alıcılara istek üzerine süper bilgisayar becerileri sunabilecek.”

NVIDIA kurucusu ve CEO ’su Jensen Huang ise, “Süratlendirilmiş bilgi operasyon ve suni akıl bütün zamanında geldi. Süratlendirilmiş bilgi operasyon, şirketler daha az kaynakla daha aşırısını yapmaya çalışırlarken maliyetleri ve eforu düşürmenin yanı gizeme kademeli işlevlerin süratlendirilmesini sağlar. Üretici suni akıl, işletmeleri, ürünlerini ve iş modellerini yine planlamaya teşvik etti ve devrilen değil devirici olan olabileceklerini fark etmelerini sağladı. AWS, uzun vakittir çözüm ortağımız ve NVIDIA GPU ’ları sunan ilk bulut hizmeti sağlayıcısı. Alıcılarımızın önlerindeki muazzam fırsatları değerlendirmek için süratlendirilmiş bilgi operasyon ve üretici suni zihinden faydalanmalarına takviyeci olmak için uzmanlığımızı, ölçeğimizi ve ulaşımımızı birleştirmekten coşku dinliyoruz,” biçiminde konuştu. 

Yeni Süper Bilgi Operasyon Kümeleri ve Sunucu Tasarımları

NVIDIA GPU ’lar tarafından desteklenen yeni P5 bulut sunucuları, sual cevaplama, kod oluşturma, video ve görüntü oluşturma, ses tanıma ve daha aşırısı dahil olmak üzere en zorlu ve bilgi operasyon açısından yoğun üretici suni akıl uygulamalarının arttaki giderek karışıklaşan LLM ’leri ve görüntü operasyona modellerini eğitmek için ideal olarak kullanılabiliyor. Yeni sunucu tasarımları ise, NVIDIA ve AWS mühendislik takımlarının termal, elektrik ve mekanik alanlardaki uzmanlığını kullanarak ölçeklenebilir ve bereketli suni zekâyı amaçlıyor ve AWS altyapısında enerji bereketliliğine odaklanarak geniş ölçekte suni akıl sunmak için GPU ’lardan faydalanan sunucular oluşturulmasını sağlıyor. GPU ’lar genellikle belli suni akıl iş yükleri için CPU ’lardan 20 kat daha fazla enerji tasarrufludur ve H100, LLM ’ler için CPU ’lardan 300 kata kadar daha yararlıdır.

Kaynak: adamnedio.com