엔비디아 딱 기다려…AMD, 'AI 칩' 시장 독점 구도 깰 新무기 꺼냈다
자유인285
IT과학
0
481
2023.12.07 19:58
AI칩 'MI300'시리즈 공식 출시…'H100'대비 메모리 2.4배·대역폭 1.6배 앞서
MS·메타 등 해당 제품 채택하기로…"4년내 AI칩시장 527조로 성장 전망"생성형 인공지능(AI) 열풍으로 AI 반도체에 대한 중요성이 빠르게 커지고 있는 가운데 미국 반도체회사 AMD가 이 분야 선두주자인 엔비디아에 대항할 새로운 제품을 공개했다.
리사 수 AMD 최고경영책임자(CEO). [사진=아이뉴스24 DB]
AMD는 6일(현지시간) 미국 캘리포니아주 샌프란시스코에서 투자자 행사를 열고 자사의 최신 AI칩인 '인스팅트 MI300 시리즈'를 공식 출시한다고 밝혔다. '인스팅트 MI300 시리즈'는 데이터센터와 서버의 AI 연산을 가속하는 제품으로, 그래픽처리장치(GPU)인 'MI300X'와 중앙처리장치(CPU)와 GPU 결합한 'MI300A'로 구성됐다.
AMD는 'MI300X'가 엔비디아의 AI칩인 'H100' 대비 2.4배 메모리 밀도와 1.6배 이상의 대역폭을 제공한다고 설명했다. 'MI300A'에 대해선 슈퍼 컴퓨팅에 적합하다고 강조했다.
리사 수 AMD 최고경영책임자(CEO)는 이날 행사에서 'H100'과 '인스팅트 MI300X'을 비교 시연하면서 "MI300X는 업계에서 가장 발전된 AI 가속기"라며 "최근 클라우드 시장은 첨단 서버와 막강한 그래픽 성능을 요구하며 AI 반도체 성능에 대한 중요성이 커지고 있다"고 말했다.
아울러 AMD는 올해 AI칩 시장이 450억달러(약 59조 2600억원)에 이를 것으로 전망했다. 이는 지난 6월 예상한 300억달러(약 39조5070억원)보다 50% 증가한 것이다. 또 오는 2027년까지 AI칩 시장 규모가 4000억달러(약 526조6800억원) 수준으로 성장할 것으로 예상했다. 특히 내년 AMD의 AI칩 매출은 20억달러(약 2조6334억원)에 이를 것이라고 자신했다.
시장에서는 AMD의 인스팅트 MI300X가 엔비디아가 독점해 온 AI용 반도체 시장 판도를 바꿀 수 있을 것이라는 전망도 제기된다. 엔비디아의 'H100'은 생성형 AI 모델의 기반이 되는 대규모 언어 모델(LLM)에 적용해 이를 훈련하도록 설계된 칩이다. 현재 구글·아마존·메타·마이크로소프트(MS) 등 글로벌 빅테크들은 생성형 AI 툴을 개발하는 데 이 칩을 사용해왔다. 다만 공급이 수요를 따라가지 못해 부족한 데다가 칩 개당 가격도 2만5000달러∼4만달러로 크게 비싸 칩 확보에 어려움을 겪어왔다.
실제 이날 행사에는 신제품 발표와 함께 메타·오픈AI·MS·오라클 등이 일부 AI 기능에 MI300X를 사용하겠다고 밝혔다. 시장조사업체 오미디아의 최근 보고서에 따르면 메타와 MS는 올해 엔비디아 H100의 최대 구매자였다. 리사 수 CEO는 이번 행사에서 'M1300X'의 가격은 언급하지 않으면서도 "고객들이 구매하도록 하기 위해서는 엔비디아보다 비용이 더 적게 들어야 할 것"이라고 말했다.
한편 선두 주자인 엔비디아는 내년 2분기 AI GPU 신제품 'H200'을 출시할 예정이다. 업계에선 기존 제품인 'H100'의 성능을 90%가량 끌어올릴 것으로 예상하고 있다.
CNBC는 "오라클, MS 등이 AMD와 공급계약을 체결한 것은 IT업체들이 엔비디아 반도체 가격에 부담을 느끼고 있다는 것을 방증한다"며 "AMD의 반도체가 일정 수준의 성능을 유지한다면 강력한 대체재로 떠오를 것"이라고 분석했다.
MS·메타 등 해당 제품 채택하기로…"4년내 AI칩시장 527조로 성장 전망"생성형 인공지능(AI) 열풍으로 AI 반도체에 대한 중요성이 빠르게 커지고 있는 가운데 미국 반도체회사 AMD가 이 분야 선두주자인 엔비디아에 대항할 새로운 제품을 공개했다.
AMD는 6일(현지시간) 미국 캘리포니아주 샌프란시스코에서 투자자 행사를 열고 자사의 최신 AI칩인 '인스팅트 MI300 시리즈'를 공식 출시한다고 밝혔다. '인스팅트 MI300 시리즈'는 데이터센터와 서버의 AI 연산을 가속하는 제품으로, 그래픽처리장치(GPU)인 'MI300X'와 중앙처리장치(CPU)와 GPU 결합한 'MI300A'로 구성됐다.
AMD는 'MI300X'가 엔비디아의 AI칩인 'H100' 대비 2.4배 메모리 밀도와 1.6배 이상의 대역폭을 제공한다고 설명했다. 'MI300A'에 대해선 슈퍼 컴퓨팅에 적합하다고 강조했다.
리사 수 AMD 최고경영책임자(CEO)는 이날 행사에서 'H100'과 '인스팅트 MI300X'을 비교 시연하면서 "MI300X는 업계에서 가장 발전된 AI 가속기"라며 "최근 클라우드 시장은 첨단 서버와 막강한 그래픽 성능을 요구하며 AI 반도체 성능에 대한 중요성이 커지고 있다"고 말했다.
아울러 AMD는 올해 AI칩 시장이 450억달러(약 59조 2600억원)에 이를 것으로 전망했다. 이는 지난 6월 예상한 300억달러(약 39조5070억원)보다 50% 증가한 것이다. 또 오는 2027년까지 AI칩 시장 규모가 4000억달러(약 526조6800억원) 수준으로 성장할 것으로 예상했다. 특히 내년 AMD의 AI칩 매출은 20억달러(약 2조6334억원)에 이를 것이라고 자신했다.
시장에서는 AMD의 인스팅트 MI300X가 엔비디아가 독점해 온 AI용 반도체 시장 판도를 바꿀 수 있을 것이라는 전망도 제기된다. 엔비디아의 'H100'은 생성형 AI 모델의 기반이 되는 대규모 언어 모델(LLM)에 적용해 이를 훈련하도록 설계된 칩이다. 현재 구글·아마존·메타·마이크로소프트(MS) 등 글로벌 빅테크들은 생성형 AI 툴을 개발하는 데 이 칩을 사용해왔다. 다만 공급이 수요를 따라가지 못해 부족한 데다가 칩 개당 가격도 2만5000달러∼4만달러로 크게 비싸 칩 확보에 어려움을 겪어왔다.
실제 이날 행사에는 신제품 발표와 함께 메타·오픈AI·MS·오라클 등이 일부 AI 기능에 MI300X를 사용하겠다고 밝혔다. 시장조사업체 오미디아의 최근 보고서에 따르면 메타와 MS는 올해 엔비디아 H100의 최대 구매자였다. 리사 수 CEO는 이번 행사에서 'M1300X'의 가격은 언급하지 않으면서도 "고객들이 구매하도록 하기 위해서는 엔비디아보다 비용이 더 적게 들어야 할 것"이라고 말했다.
한편 선두 주자인 엔비디아는 내년 2분기 AI GPU 신제품 'H200'을 출시할 예정이다. 업계에선 기존 제품인 'H100'의 성능을 90%가량 끌어올릴 것으로 예상하고 있다.
CNBC는 "오라클, MS 등이 AMD와 공급계약을 체결한 것은 IT업체들이 엔비디아 반도체 가격에 부담을 느끼고 있다는 것을 방증한다"며 "AMD의 반도체가 일정 수준의 성능을 유지한다면 강력한 대체재로 떠오를 것"이라고 분석했다.