[이데일리 김윤지 기자] 마이크로소프트(MS)가 새 인공지능(AI) 칩을 26일(현지시간) 공개했다. AI 칩 선두주자 엔비디아에 대한 의존에서 벗어날 수 있을지 주목된다.
로이터통신에 따르면 MS는 자사의 ‘마이아 200’ 칩이 아이오와에 위치한 데이터센터에 이미 설치돼 이번주 가동을 시작하며, 애리조나에 두 번째 가동 거점을 계획하고 있다고 밝혔다. 이는 MS가 2023년 첫 선을 보인 마이아 시리즈의 두 번째 세대다.
엔비디아가 이달 초 공개한 차세대 플래그십 칩 ‘베라 루빈’과 마찬가지로 마이아 200 역시 대만 TSMC에서 3나노미터(nm·1nm는 10억분의 1m) 공정으로 생산되며, 고대역폭 메모리(HBM)를 사용한다. MS의 마이아200은 엔비디아의 루빈에 탑재될 메모리보다 이전 세대이자 속도가 느린 HBM을 사용한다.
마이아200(출처=MS 블로그) |
로이터통신에 따르면 MS는 자사의 ‘마이아 200’ 칩이 아이오와에 위치한 데이터센터에 이미 설치돼 이번주 가동을 시작하며, 애리조나에 두 번째 가동 거점을 계획하고 있다고 밝혔다. 이는 MS가 2023년 첫 선을 보인 마이아 시리즈의 두 번째 세대다.
엔비디아가 이달 초 공개한 차세대 플래그십 칩 ‘베라 루빈’과 마찬가지로 마이아 200 역시 대만 TSMC에서 3나노미터(nm·1nm는 10억분의 1m) 공정으로 생산되며, 고대역폭 메모리(HBM)를 사용한다. MS의 마이아200은 엔비디아의 루빈에 탑재될 메모리보다 이전 세대이자 속도가 느린 HBM을 사용한다.
MS는 엔비디아의 경쟁사들이 활용하는 전략도 일부 차용했다. 마이아 200에는 S램이 대량으로 탑재되었는데, 이는 다수의 사용자가 동시에 요청을 보내는 챗봇 및 기타 AI 시스템에서 응답 속도를 개선하는 데 유리한 메모리 구조다.
또한 마이아200은 AI 개발에서 추론에 강점이 있다. 경량 연산(FP4) 성능에서 아마존 자체 AI 칩 ‘트레이니엄’ 3세대 버전 대비 3배에 달하고, 구글의 7세대 텐서처리장치(TPU) ‘아이언우드’보다도 높다는 것이 MS 측의 설명이다. 사티아 나델라 최고경영자(CEO)는 “업계 최고의 추론 효율성을 위해 설계된 이 제품은 현존 시스템 대비 달러당 성능이 30% 높다”고 설명했다.
MS, 구글, 아마존닷컴 등 주요 클라우드 기업들은 엔비디아의 최대 고객사인 동시에 자체 칩 개발에 박차를 가하고 있다. 구글은 자체 AI 칩인 TPU를 성공적으로 운용하면서 독자 생태계 구축 가능성을 높였으며, 아마존도 지난해 12월 자체 AI 칩 ‘트레이니움 3’를 공개했다. 아마존 역시 엔비디아 의존도를 낮추기 위해 클라우드 서비스에 최적화된 칩을 설계했다.
이날 MS는 마이아200 칩과 함께 이를 프로그래밍하기 위한 소프트웨어개발도구(SDK)도 함께 공개한다고 밝혔다. 여기에는 오픈소스 소프트웨어 도구인 트라이톤이 포함된다. 월가 애널리스트들이 이것이 엔비디아의 최대 경쟁 우위로 꼽는 쿠다를 정면으로 겨냥하고 있다고 봤다.































































