Microsoft Azure, GB200을 탑재한 NVIDIA의 Blackwell 시스템을 탑재한 최초의 하이퍼스케일러가 됨
3월에 NVIDIA는 혁신적인 Blackwell 플랫폼을 공개했는데, 이는 대규모 언어 모델을 훈련하는 이전 모델에 비해 비용과 에너지 소비를 최대 25배까지 현저히 줄인 것을 자랑합니다. Amazon Web Services, Dell Technologies, Google, Meta, Microsoft, OpenAI, Oracle, Tesla, xAI와 같은 주요 클라우드 서비스 제공업체와 저명한 AI 기업들 사이에서 Blackwell이 출시되면 운영에 통합할 것으로 기대되고 있습니다.
그러나 Blackwell 플랫폼 출시는 설계 문제로 인해 최대 3개월 동안 지연되었습니다. 최근 Microsoft는 X에서 NVIDIA의 GB200 Blackwell 칩을 이미 받기 시작했으며 현재 이러한 새로운 칩을 최대한 활용하기 위해 서버를 최적화하고 있다고 발표했습니다. 이 최적화는 NVIDIA의 고급 Infiniband 네트워킹 기술과 혁신적인 폐쇄 루프 액체 냉각 시스템을 활용합니다.
Microsoft Azure는 GB200 기반 AI 서버와 함께 @nvidia 의 Blackwell 아키텍처를 구축한 최초의 클라우드 플랫폼입니다 . 우리는 Infiniband 네트워킹과 최첨단 폐쇄 루프 액체 냉각을 활용하여 세계 최고의 AI 모델을 지원하기 위해 모든 수준에서 성능을 향상시키고 있습니다. MS Ignite에서 자세히 알아보세요. pic.twitter.com/K1dKbwS2Ew
— Microsoft Azure (@Azure) 2024년 10월 8일
또한 Microsoft CEO Satya Nadella는 GB200 배포에 대한 업데이트도 공유했습니다.
NVIDIA와의 지속적인 협력과 끊임없는 혁신을 통해 업계의 선두주자로 자리매김하고 있으며, 가장 복잡한 AI 워크로드를 지원합니다. https://t.co/qaEoSv8dm5
— 사티아 나델라(@satyanadella) 2024년 10월 8일
또한 NVIDIA는 최근 DGX B200의 초기 엔지니어링 버전 중 하나를 OpenAI 팀에 제공했습니다.
방금 우리 사무실에 도착한 것을 확인해 보세요. DGX B200의 첫 엔지니어링 유닛 중 하나를 보내주신 @nvidia 에게 감사드립니다. pic.twitter.com/vy8bWUEwUi
— OpenAI(@OpenAI) 2024년 10월 8일
다양한 잠재 고객이 NVIDIA의 Blackwell 플랫폼에 관심을 보이고 있다는 점을 감안할 때, Microsoft와 OpenAI가 이러한 칩을 가장 먼저 받는 것은 당연한 일입니다. 자체 AI 교육 인프라(Tensor Processing Unit을 사용하는 Google과 맞춤형 칩을 개발하는 AWS)를 보유한 Google과 AWS와 같은 다른 주요 클라우드 공급업체와 달리, Microsoft와 OpenAI는 NVIDIA의 기술에 전적으로 의존하여 NVIDIA의 가장 큰 고객 중 하나로 자리매김하고 있습니다.
Microsoft는 11월에 예정된 Ignite 컨퍼런스에서 NVIDIA의 GB200 배포에 대한 자세한 내용을 발표할 것으로 예상됩니다.
답글 남기기