Bu hafta Microsoft, Azure bulutunda yapay zeka ve genel bilgi işlem iş yüklerini yönetecek iki "ev yapımı" çip ürettiğini duyurdu. Duyuru Ignite 2023 konferansında yapıldı ve Microsoft'un özellikle Nvidia gibi satıcıların hazır donanımlarına olan bağımlılığını azaltacak özel tasarlanmış Arm tabanlı bir çip olan "Project Athena"nın varlığına ilişkin önceki söylentileri doğruluyor. yapay zeka eğitimi ve çıkarım alanı.
İlk çip, Microsoft Azure Maia 100 AI Hızlandırıcı olarak adlandırılıyor ve Project Athena'nın doğrudan sonucudur. Uzun adından da anlaşılacağı gibi Redmond devi, çipi özellikle GPT-3.5 Turbo ve GPT-4 gibi büyük dil modellerini çalıştırmak için tasarladı. TSMC'nin 5 nm süreci üzerine inşa edilen ve en az 105 milyar transistör içeren yeni çip, daha hızlı model eğitimi ve çıkarım süreleri için 8 bit altı formatlar da dahil olmak üzere çeşitli MX veri türlerini destekliyor.
Referans olarak, Nvidia'nın H100 AI Superchip'inde 80 milyar transistör var ve AMD'nin Instinct MI300X'inde 153 milyar transistör var. Bununla birlikte, Maia 100 AI Hızlandırıcı ile AI hizmetleri geliştiren çoğu şirketin kullandığı mevcut çipler arasında henüz doğrudan bir performans karşılaştırması göremedik. Bildiğimiz şey, daha iyi ölçeklendirme ve uçtan uca performansa olanak tanıyan özel Ethernet tabanlı ağ protokolü sayesinde her Maia 100 bilgi işlem ünitesinin toplam 4,8 Terabit bant genişliğine sahip olduğudur.
Microsoft'un Maia 100 çipini OpenAI'den gelen kapsamlı geri bildirimleri kullanarak geliştirdiğini de belirtmekte fayda var. İki şirket, mimariyi geliştirmek ve GPT modellerini test etmek için birlikte çalıştı. Microsoft için bu, Azure'un uçtan uca yapay zeka mimarisinin verimliliğini optimize etmeye yardımcı olurken, OpenAI de bugün mevcut olanlardan daha iyi ve daha ucuz yeni yapay zeka modellerini eğitebilecek.
Microsoft'un Ignite'ta tanıttığı ikinci çipe Cobalt 100 CPU adı veriliyor. Bu, Arm Neoverse Bilgi İşlem Alt Sistemlerini temel alan 64 bit, 128 çekirdekli Arm tabanlı bir işlemcidir ve ticari Arm tabanlı sunucularda bulunan mevcut nesil donanımlarla karşılaştırıldığında daha genel Azure bilgi işlem iş yükleri için yüzde 40'a varan performans iyileştirmeleri sağlar. . Kobalt 100 tabanlı sunucular, diğer şeylerin yanı sıra Microsoft Teams ve Windows 365 gibi hizmetleri desteklemek için kullanılacak.
Microsoft'ta Azure altyapı sistemleri başkanı Rani Borkar, şirketin kendi geliştirdiği çip çabalarının, Xbox ve Surface için silikon ortak mühendisliğindeki yirmi yıllık deneyimin üzerine inşa edildiğini söylüyor. Yeni Cobalt 100 CPU, şirketin performansı ve güç tüketimini çekirdek başına kontrol etmesine olanak tanıyor ve daha uygun maliyetli bir bulut donanım yığını oluşturmayı mümkün kılıyor.
Denklemin maliyet kısmı özellikle önemlidir. Maia 100 Yapay Zeka Hızlandırıcı örneğinde, Microsoft'un yeni bir sıvı soğutma çözümü ve güç ve ağ kabloları için daha fazla alan sağlayan yeni bir raf tasarımı bulması gerekiyordu. Bununla birlikte, yeni çipi kullanmanın maliyeti, Nvidia veya AMD'nin özel donanımlarını kullanmaktan hala önemli ölçüde daha düşük.
Microsoft, "herkes ve yaptığınız her şey için" bir Copilot oluşturmaya kararlı görünüyor ve bu, Windows için Copilot, GitHub, Dynamics 365, Microsoft Security ve Microsoft 365'in sürümüne de yansıyor. Şirket kısa süre önce Bing Chat'in markasını "Microsoft Copilot" olarak değiştirdi. ," dolayısıyla ileriye dönük olarak sunduğu her hizmete daha gelişmiş yapay zeka modellerini dahil etmek istediği açıktır.
Yapay zeka eğitimi ve çıkarımı hızla pahalılaşıyor ve bir yapay zeka hizmetini çalıştırmanın, arama motoru gibi bir şeye kıyasla on kata kadar daha pahalı olduğu tahmin ediliyor. Özel silikon yapmak aynı zamanda tedarik sorunlarını da hafifletebilir ve Microsoft'un yapay zeka bulut sağlayıcılarından oluşan kalabalık bir ortamda rekabet avantajı elde etmesine yardımcı olabilir. Amazon, Meta ve Google gibi bazılarının da aynı nedenlerden dolayı kendi yerli silikon çalışmaları var ve bir zamanlar Arm tabanlı veri merkezi çiplerinin ilk tedarikçisi olmayı hayal eden Ampere gibi şirketler, şüphesiz bunlara uyum sağlamak zorunda kalacaklar. hayatta kalmak istiyorlarsa gelişmeler.
Bununla birlikte Redmond şirketi, yakın gelecekte Nvidia'nın yakın zamanda duyurduğu H200 Tensor Core GPU da dahil olmak üzere hazır donanımları kullanmaya devam edeceğini söylüyor. Microsoft Cloud + AI Group'un başkan yardımcısı Scott Guthrie, bunun şirketin tedarik zincirini çeşitlendirmeye ve müşterilere daha fazla altyapı seçeneği sunmaya yardımcı olacağını söylüyor.

Comments
Post a Comment