메타도 “성능 3배” 자체 AI 칩 출시…빅테크들, 엔비디아 겨냥 경쟁 가열
페이지 정보
작성자 행복한 댓글 0건 조회 56회 작성일 24-04-15 08:22본문
네이버클라우드는 11일 인텔과 함께 국내 학계 및 스타트업과의 공동 연구를 통해 가우디 기반의 새로운 AI 칩 소프트웨어 생태계 구축에 나선다고 밝혔다. 지난 9일(현지시간) ‘인텔 비전 2024’ 행사에서 밝힌 양사 협력의 구체적 방향을 공개한 것이다.
양사는 상반기 중 ‘AI 공동연구센터(NICL)’를 설립한다. 카이스트를 중심으로 서울대·포스텍을 포함한 국내 20여개 연구실 및 스타트업이 참여한다. 인텔은 소프트웨어·하드웨어를 포함한 가우디 기반 AI 생태계를 구축하고, 네이버클라우드는 네이버 자체 거대언어모델(LLM) 하이퍼클로바X 중심의 AI 생태계를 확장해 나갈 계획이다. 네이버와 인텔은 연구를 통해 AI 반도체에 쓰이는 소프트웨어(SW) 플랫폼 공동 개발에 나선다. 엔비디아가 자사 그래픽처리장치(GPU)와 연계된 프로그래밍 도구 ‘쿠다(CUDA)’를 통해 구축한 폐쇄적 생태계에 균열을 내려는 것이다.
김유원 네이버클라우드 대표는 현재 글로벌 빅테크 중심 시장에서 AI 칩 생태계의 다양성을 확보하는 것은 매우 의미있다고 협력 배경을 설명했다.
메타는 10일(현지시간) 블로그를 통해 차세대 맞춤형 AI 칩을 출시한다고 밝혔다. 메타 훈련 및 추론 가속기(MTIA)라는 이름의 이 AI 칩은 지난해 5월 처음 선보인 모델의 2세대 버전으로, 자체 LLM인 ‘라마’와 같은 생성형 AI를 훈련하는 것이 목표다. 메타는 이전 모델보다 3배 더 나은 성능을 보였다고 밝혔다.
메타 역시 새로운 칩 개발을 통해 엔비디아에 대한 의존도를 낮출 수 있을 것으로 기대하고 있다. 마크 저커버그 메타 최고경영자(CEO)는 인간 지능에 가깝거나 능가하는 범용인공지능(AGI) 학습을 위해 가장 많이 사용되는 엔비디아의 H100 칩 35만개를 포함해 연내 총 60만개의 H100급 AI 칩을 확보할 것이라고 밝힌 바 있다. 이러한 AI 지원 인프라 구축에 350억달러(약 48조원)를 쓰기로 했다.
AI 기술 경쟁이 치열해지면서 AI 칩 수요도 폭발적으로 늘고 있지만, 공급이 이를 따라가지 못하고 있다. 덩달아 엔비디아의 시장 독점이 굳건해지자 전통의 반도체 회사들과 빅테크들이 자체 칩 개발에 나서는 것이다.
앞서 AMD는 지난해 12월 최신 AI 칩인 MI300X를 출시했다. AMD는 H100보다 메모리 용량은 2.4배, 대역폭은 1.6배 늘렸다며 성능이 뒤지지 않는다고 강조했다. 삼성전자도 연내 추론에 특화된 AI 반도체 ‘마하-1’을 선보일 계획이다. 마하-1은 GPU와 고대역폭메모리(HBM)가 데이터를 주고받는 속도와 전력 효율을 대폭 높인 것으로 알려졌다.
마이크로소프트와 아마존도 지난해 11월 자체 개발한 AI 칩 ‘마이아 100’과 업그레이된 AI 칩 ‘트레이니엄2’를 각각 공개했고, 구글도 자체 AI 전용칩인 ‘텐서처리장치(TPU)’를 출시했다.
후발주자들이 엔비디아의 아성에 도전하고 있지만, 엔비디아는 최근 ‘블랙웰’ GPU 기반의 차세대 AI 칩을 인스타 좋아요 구매 공개하며 한 발짝 더 나아간 상태다. 블룸버그통신은 이들 기업의 자체 개발 노력에도 불구하고 엔비디아의 AI 칩에 대한 수요에는 아직 영향을 미치지 못하고 있다고 전했다.
댓글목록
등록된 댓글이 없습니다.