EC2 UltraClusters’da kullanılan yeni Amazon EC2 P5 bulut sunucuları, Müstahsil Yapay zeka eğitimini ve Aka ölçekte çıkarımı hızlandırmak için NVIDIA Hopper GPU’lardan yararlanacak halde optimize edildi
Bir Amazon şirketi (NASDAQ: AMZN) olan Amazon Web Services (AWS) ve NVIDIA (NASDAQ: NVDA) giderek karmaşıklaşan Aka lisan modellerini (LLM’ler) eğitmek ve Müstahsil Yapay zeka uygulamaları geliştirmek için optimize edilmiş, dünyanın en ölçeklenebilir, isteğe bağlı Yapay zeka (AI) altyapısını oluşturmaya odaklanan Fazla taraflı bir Amel birliği yaptıklarını duyurdu.
Bu Amel birliği, NVIDIA H100 Tensor Core GPU’lar tarafından desteklenen yeni nesil Amazon Elastic Compute Cloud (Amazon EC2) P5 bulut sunucularını ve AWS’in en Aka derin öğrenme modellerini oluşturmak ve eğitmek için 20 exaFLOP’a kadar süreç performansı sağlayacak nihayet teknoloji File irtibatını ve ölçeklenebilirliğini kapsıyor. P5 bulut sunucuları, 3.200 Gbps düşük gecikme müddetli, yüksek bant genişlikli File transfer suratı sağlayarak müşterilerin EC2 UltraClusters’da 20.000 H100 GPU’ya kadar ölçeklendirme yapmasına İmkan tanıyan ve böylelikle Yapay zeka için Dilek üzerine muhteşem bilgisayar sınıfı performansa erişebilmelerini sağlayan AWS’in ikinci jenerasyon Esnek Bina Bağdaştırıcısı (EFA, Elastic Fabric Adapter) File irtibatından yararlanan birinci GPU tabanlı bulut sunucusu olacak. Bu teknolojiyi kullanmak için sabırsızlanan şirketler ortasında, Eser geliştirmelerini hızlandırmak ve müşterilerine yeni empatik Yapay zeka tabanlı tecrübeler sunmak isteyen dünya çapında tanınan şirketlerden biri olan Pinterest yer alıyor.
AWS CEO’su Adam Selipsky konuyla ilgili olarak şunları söyledi: “AWS ve NVIDIA, AI/ML (yapay zeka/makine öğrenimi), grafik, oyun ve HPC (yüksek performanslı bilişim) üzere Çeşitli uygulamalara yönelik, İstek üzerine, Aka ölçekli, Müsait maliyetli, GPU tabanlı tahliller sunmak için 12 yılı aşkın müddettir Amel birliği yapıyor. Bugün birçok müşterinin makine tahsili eğitimi Amel yüklerini 10.000’den Çok GPU’ya ölçeklendirdiği de göz önüne alınırsa, AWS her jenerasyonda ölçeklenebilirlik sonlarını zorlayan GPU tabanlı bulut sunucuları sunma konusunda eşsiz bir tecrübeye sahip. İkinci jenerasyon EFA, müşterilerin P5 bulut sunucularını 20.000’den Çok NVIDIA H100 GPU’ya ölçeklendirmelerine İmkan sağlayarak startup’lardan Aka şirketlere kadar geniş bir yelpazede müşterilere Dilek üzerine muhteşem bilgisayar yetenekleri sunabilecek.”
NVIDIA kurucusu ve CEO’su Jensen Huang ise, “Hızlandırılmış bilgi süreç ve Yapay zeka tam vaktinde geldi. Hızlandırılmış bilgi süreç, işletmeler daha az kaynakla daha fazlasını yapmaya çalışırlarken maliyetleri ve gücü düşürmenin yanı Dizi kademeli fonksiyonların hızlandırılmasını sağlar. Üretici Yapay zeka, şirketleri, eserlerini ve Amel modellerini tekrar tasarlamaya teşvik etti ve yıkılan değil yıkıcı olan olabileceklerini ayrım etmelerini sağladı. AWS, uzun müddettir tahlil ortağımız ve NVIDIA GPU’ları sunan birinci bulut hizmeti sağlayıcısı. Müşterilerimizin önlerindeki muazzam fırsatları kıymetlendirmek için hızlandırılmış bilgi süreç ve Müstahsil Yapay zekadan yararlanmalarına Yardımcı olmak için uzmanlığımızı, ölçeğimizi ve erişimimizi birleştirmekten heyecan duyuyoruz,” biçiminde konuştu.
Yeni Üstün Bilgi Süreç Kümeleri ve Sunucu Tasarımları
NVIDIA GPU’lar tarafından desteklenen yeni P5 bulut sunucuları, soru yanıtlama, kod oluşturma, görüntü ve manzara oluşturma, ses tanıma ve daha fazlası iç olmak üzere en kuvvetli ve bilgi süreç açısından ağır Müstahsil Yapay zeka uygulamalarının gerisindeki giderek karmaşıklaşan LLM’leri ve manzara sürece modellerini eğitmek için İdeal olarak kullanılabiliyor. Yeni sunucu dizaynları ise, NVIDIA ve AWS mühendislik gruplarının termal, elektrik ve mekanik alanlardaki uzmanlığını kullanarak ölçeklenebilir ve verimli Yapay zekayı hedefliyor ve AWS altyapısında güç verimliliğine odaklanarak geniş ölçekte Yapay zeka sunmak için GPU’lardan yararlanan sunucular oluşturulmasını sağlıyor. GPU’lar çoklukla makul Yapay zeka Amel yükleri için CPU’lardan 20 kat daha Çok güç tasarrufludur ve H100, LLM’ler için CPU’lardan 300 kata kadar daha verimlidir.
Kaynak: (BYZHA) – ak Haber Ajansı