삼성 AI칩, 마하1이 놀라운 2가지 이유

삼성전자는 삼성 AI칩 ‘마하1’의 양산을 2024년말 시작할 예정이라고 밝혔습니다. 이로 인해 AI 반도체 시장에 큰 변화가 예상됩니다.

2024년 3월 주주종회에서 삼성 AI칩 마하1칩의 개발소식을 공개

최근 경기 수원컨벤션센터에서 열린 제55기 삼성전자 정기 주주총회에서 경계현 사장은 ‘마하1’ 칩의 개발 소식을 처음으로 공개했습니다.

이 칩은 AI 추론 작업에 특화되어 있으며, 컴퓨터의 중앙처리장치(CPU)와 같은 역할을 하면서 AI 추론 작업의 일부를 가능하게 해줍니다. 특히, ‘마하-1’은 메모리와 GPU 간의 병목 현상을 해결할 수 있는 구조를 갖추고 있으며, 고대역폭메모리(HBM)를 사용하지 않고도 저전력 메모리를 통해 대규모 언어 모델(LLM) 추론을 수행할 수 있을 것으로 기대됩니다.

경 사장은 이번 발표에서 AI 시대를 맞이하여 컴퓨트와 메모리의 대규모 결합의 중요성을 강조하면서, 현재 AI 시스템이 직면한 메모리 병목 문제와 성능 저하, 파워 문제를 해결하기 위한 노력의 일환으로 AGI(범용인공지능) 컴퓨팅랩의 설립과 AI 아키텍처의 근본적인 문제 해결 계획을 밝혔습니다.

삼성전자는 이를 위해 미국과 한국에 AGI 컴퓨팅랩을 설립하였고, 이곳에서 ‘마하1’ 칩의 개발을 담당하게 됩니다. 이 프로젝트는 구글의 AI 작업에 특화된 텐서처리장치(TPU) 개발 경험이 있는 우동혁 박사가 이끌고 있습니다.

경 사장은 ‘마하1’ 인퍼런스칩의 개발 목표로 메모리 처리량을 기존의 8분의 1로 줄이면서 파워 효율을 8배로 높이는 것을 제시하며, 이는 혁신의 시작이 될 것이라고 강조했습니다. 그는 현재 프로그래머블칩(FPGA)을 사용하여 ‘마하1’의 기술 검증을 마쳤으며, 이제 시스템온칩(SoC) 디자인으로 넘어가 연말에 칩을 완성하여 내년 초에 삼성의 칩을 사용한 AI 시스템을 선보일 수 있을 것이라고 밝혔습니다.

삼성 AI칩 마하1이 시장의 판을 뒤 흔들 수 있는 이유

네이버과 협업에서 8배 이상의 효율 확인

19일 서울 서초구 더케이호텔에서 열린 ‘제4차 AI반도체 최고위 전략대화’에서 삼성전자와 네이버는 과학기술정보통신부의 주최 하에 자체 개발 중인 AI반도체의 프로토타입을 공개했습니다. 이번에 선보인 AI반도체는 프로그래밍 가능한 ‘필드 프로그래머블 게이트 어레이(FPGA)’ 버전으로, 앞으로 시제품과 최종 제품으로 발전될 예정입니다.

양사는 지난해 12월 국내 최고의 기술력을 결합하여 엔비디아와 구글과 같은 외국 기업들에 대항하는 국산 AI반도체 개발을 위한 업무 협약을 체결한 바 있습니다. 이날 공개된 AI반도체는 네이버의 대형 AI 모델 ‘하이퍼클로바X’를 실시간으로 구동하는 모습을 보여줌으로써 그 가능성을 입증했습니다.

특히, 삼성과 네이버가 공동 개발한 AI반도체는 메타의 초대형 AI모델 ‘라마(LLaMa)’를 구동할 때, 엔비디아와 구글의 AI반도체에 비해 8배 높은 전력 효율을 달성했다고 합니다. 높은 전력 효율은 적은 전력으로도 동일한 연산 성능을 낼 수 있다는 것을 의미하며, 반도체의 집적도가 높아질수록 점점 더 중요한 성능 지표로 부상하고 있습니다.

이번 AI반도체 공개는 삼성전자와 네이버가 국내 기술로 글로벌 시장에서 경쟁할 수 있는 기술력을 갖추었음을 보여주는 중요한 이정표입니다. 양사의 협력이 앞으로 AI 기술 발전과 국내 반도체 산업의 성장에 어떤 영향을 미칠지 기대가 모아지고 있습니다.

삼성AI칩 마하1의 가격 : 엔비디아 칩 대비 10%에 불과한 극강의 가성비

AI 가속기 시장에서 엔비디아가 90% 이상의 압도적인 점유율을 가지고 있음에도 불구하고, 삼성전자가 개발 중인 ‘마하1’이 새로운 도전자로 떠오르고 있습니다. ‘마하1’은 데이터 병목 현상을 최소화하며, 고가의 고대역폭 메모리(HBM) 대신 저전력 DRAM을 사용하여도 뛰어난 성능을 제공하는 것으로 설계되었습니다. 삼성은 이 칩을 저전력 DRAM과 결합하는 최첨단 패키징 기술로 제품 개발부터 양산까지 원스톱으로 진행할 계획입니다.

삼성은 DRAM, 자체 AP 설계, GPU 디자인 능력을 바탕으로 한 자체 파운드리를 보유하고 있습니다. 이러한 경쟁력이 결합되면 시장에 큰 변화를 가져올 것으로 기대됩니다. 삼성 파운드리의 과거 성과가 기대에 못 미쳤더라도, 삼성의 Fabless 사업부인 LSI의 능력은 아직 충분히 평가받지 못했습니다. ‘마하1’은 HBM 대신 저전력 DRAM을 사용함으로써, 가격 경쟁력에서도 우위를 점할 것으로 예상됩니다.

특히 주목할 점은 삼성전자가 연말에 네이버에 ‘마하1’ AI 가속기 20만 개를 약 1조 원 규모로 납품할 예정이라는 것입니다. ‘마하1’은 AI 학습과 추론에 최적화되어 있으며, 엔비디아 제품과 비교해 뛰어난 전력 효율과 데이터 병목 현상이 적은 것이 특징입니다. 또한, 칩당 가격이 500만 원으로 책정될 예정이며, 이는 엔비디아 제품의 10% 수준에 불과합니다. 네이버가 요구하는 수량이 15만에서 20만 개 사이인 만큼, 삼성전자의 납품액은 최대 1조 원에 이를 것으로 보입니다. 삼성전자는 이를 계기로 마이크로소프트(MS), 메타 등 글로벌 기업들을 대상으로 ‘마하-1’의 영업 및 마케팅 활동을 본격화할 계획입니다.

저커버그의 10년만의 방한과 젠슨황의 사인

삼성 AI칩_마하1

지난 1년 간, 삼성전자의 주가는 SK하이닉스에 비해 크게 뒤처졌습니다. 주된 이유는 삼성전자의 HBM 칩이 엔비디아의 GPU에 납품하지 못했다는 점입니다. 한마디로, AI 시대의 낙오자로 여겨지며 단기 투자자들로부터 외면받았습니다.

그러나 이번 ‘마하1’ 칩을 통해 삼성은 업계 리더로서의 면모를 과시했습니다. 비싼 HBM을 사용하지 않고도 엔비디아보다 8배나 효율이 높은 칩을 개발했을 뿐만 아니라, 가격도 엔비디아 제품의 10분의 1 수준으로 판매하고 있습니다. 실제 칩이 시장에 출시되지 않았기 때문에 구체적인 스펙은 연말이 되어야 알 수 있겠지만, 현재 알려진 사실만으로도 충분히 충격적입니다.

2024년 2월 말, 메타의 저커버그가 한국을 방문해 삼성의 주요 경영진과 미팅을 가졌습니다. 당시, 그의 방문 목적은 알려지지 않았습니다. 언론들은 메타가 개발 중인 AI 칩을 삼성 파운드리에서 생산하려는 의도가 아니었을까 추측했습니다. 하지만 삼성의 AI 칩인 ‘마하1’을 메타의 AI 모델에서 테스트했다는 뉴스가 나오면서 저커버그의 방문 목적이 명확해졌습니다.

지난주, 가장 큰 뉴스는 엔비디아의 젠슨 황이 연례 개발자 콘퍼런스에서 삼성전자 부스를 방문해 ‘젠슨이 승인했다’는 사인을 삼성의 HBM3E 모델 옆에 남겼다는 것입니다. 시장은 삼성이 드디어 엔비디아에 HBM3E를 납품하게 될 것이라고 크게 반응했습니다. 하지만, 진정으로 삼성이 준비하고 있던 것은 ‘마하-1’이 공개된 후에야 알려졌습니다.

메모리 분야에서 세계 1위인 삼성은 엔비디아에 납품되는 비싼 HBM이 아닌, 일반 DRAM을 사용해서도 높은 성능을 내는 자체 AI 칩을 개발하고 있었습니다. 많은 사람들이 여전히 삼성전자의 실력에 대해 의심하는 모습을 보이고 있지만, 저커버그의 방한과 젠슨 황의 삼성에 대한 언급은 ‘마하1’의 성능에 대한 중요한 시사점을 남기고 있습니다.

Leave a Comment