오픈AI의 인공지능(AI) 챗봇 ‘챗GPT’로 불붙은 생성 AI 서비스 시장이 반도체 업계에 드리운 불황을 걷어낼 차세대 먹거리가 될 수 있을지 기대를 모으고 있다. 짧은 시간에 무수히 많은 연산을 해야 하는 초거대 모델 기반 생성 AI 운영엔 엄청난 수량의 고효율 반도체 칩셋이 필요하기 때문이다.
자연 AI 연산을 수행하는 AI 반도체 개발 경쟁도 뜨거워지고 있다. 현재 AI 연산을 처리하는 AI 반도체는 대부분 그래픽처리장치(GPU)다. GPU는 CPU 코어를 단순화하고 수천 개로 늘려 그래픽 연산에 필요한 ‘곱셈’을 효과적으로 수행한다. 명령어를 한 번에 하나씩 빠르게 처리(직렬 처리)하는 중앙처리장치(CPU)와 달리, 방대한 데이터를 동시에 처리(병렬 처리)할 수 있어 AI 연산에도 활용된다.
챗GPT는 초거대 언어모델 AI인 GPT-3를 기반으로 하는데, 이런 초거대 언어모델을 학습하는 데는 보통 수백 개의 GPU가 사용된다. GPU 1개당 연산성능이 163TFlops(테라플롭스·1테라플롭스는 1초에 1조 번 연산)에 달하는 엔비디아의 GPU ‘A100’ 1024개를 사용하면 GPT-3 수준의 언어모델 학습에 1개월 남짓 걸린다. 엔비디아는 지난해 연산성능을 높인 ‘H100’이라는 최신 GPU를 선보이기도 했다.
문제는 비용이다. GPU는 애초 목적이 AI 연산이 아니었기 때문에 전력 효율, 면적, 수행시간 등에서 AI에 최적화한 반도체는 아니다. 샘 올트먼 오픈AI CEO는 최근 “챗GPT 1회 사용에 몇 센트가 든다”고 적기도 했다. 챗GPT 가입자가 최근 1억 명에 도달하는 만큼 운영비용은 하루 수백억원에 달할 것으로 추산된다.
국내 관련 업체들과 정부가 나서 AI 반도체 개발을 추진하는 이유도 이런 고전력·고비용 문제에 있다. 앞으로 AI 서비스가 더 확대되면, 저전력 고효율 반도체의 수요가 폭발적으로 늘어날 가능성이 높다. 이에 등장한 인공지능 전용 반도체가 신경망처리장치(NPU)다. 구글, 인텔 등의 글로벌 IT 기업들은 GPU 이상의 고성능을 유지하면서도 저전력을 기반으로 작동하는 NPU를 개발 중이다.
국내 기업들도 NPU 개발에 적극적이다. 국내 AI 반도체 스타트업인 퓨리오사AI가 개발한 AI 반도체 ‘워보이’는 가격과 트랜지스터 개수가 10배 이상인 엔비디아의 A100과 비교해 대등한 수준의 성능을 기록했다. 또 다른 AI 반도체 스타트업인 리벨리온이 지난해 공개한 금융 거래 전용 AI 반도체 ‘아이온’은 인텔의 고야보다 처리 속도가 30% 빠르고, 전력 소비 효율은 배 이상 높아 시선을 끌었다. SK그룹의 사피온은 2020년 국내 기술 100%로 데이터센터 등에 사용되는 ‘사피온 X220’ 개발에 성공했다.
다만 아직까지 AI 개발 환경이 GPU 기반으로 형성돼 NPU 시장은 초기 단계다. 정부는 AI 반도체 부문에 4년간 총 1조200억원을 투자하겠다고 밝혔다. 과학기술정보통신부는 국산 AI 반도체를 단계별로 데이터센터에 적용해 국내 클라우드에 기반한 AI 서비스를 실증한다는 계획을 세웠다. 여기에만 올해 428억원, 2025년까지 1000억원을 지원한다.
삼성전자와 SK하이닉스 등 국내 기업들은 GPU에 붙는 메모리 반도체 쪽에 일단 집중하고 있다. 메모리 반도체에 연산 기능을 더한 PIM(Processing in Memory) 메모리 제품이다. ‘지능형 반도체’라고도 하는 PIM 기술은 보통 저장 기능만 수행하는 메모리 반도체에 연산(프로세서) 기능을 추가한 것이다. 저장된 데이터를 메모리에서 프로세서로 주고받는 과정에만 전력 70%가 소모되는데, 메모리가 연산 기능까지 수행하면 이 과정을 줄일 수 있어 차세대 AI 반도체로 꼽힌다.
삼성전자는 자체 연산 기능이 탑재된 지능형 반도체(PIM) 제품을 GPU 업계 2위인 AMD에 공급하고 있다. SK하이닉스는 업계 1위 엔비디아의 A100과 더 발전한 모델인 ‘H100’ 칩셋에 자사 고대역폭 메모리(HBM) 반도체를 공급한다. HBM은 대량의 데이터를 한 번에 보낼 수 있는 메모리로, 지난해부터 AI 서버용으로 적용되기 시작했다.
정부에서도 적극적인 지원에 나선다. 우리나라가 기술력을 가진 메모리 반도체에 연산 기능을 추가한 고성능·저전력 PIM 기술을 앞세워 국내 인공지능 반도체 수준을 2030년까지 세계 최고로 끌어올린다는 게 정부 구상이다. 이를 통해 2030년까지 3단계에 걸쳐 국산 AI 반도체의 국내 데이터센터 시장 점유율을 80%까지 확대한다는 것이다.
1단계로 2025년까지 현재 상용화 초기인 국산 NPU의 국내 점유율을 23%까지 올릴 계획이다. 2단계는 2028년까지 D램 기반 PIM과 국산 NPU를 접합해 엔비디아 등 글로벌 업체가 기술 우위를 가진 해외 GPU급 성능을 구현한다는 구상이다. 이를 통해 현재 미국 기술의 89.2%, 중국의 92.5% 수준으로 알려진 국산 AI 반도체 기술 수준을 미국에 버금가도록 한다는 목표다.
NPU·PIM 기술 개발에 2030년까지 8262억원을 투자하고, 국산 AI 반도체를 데이터센터에 적용하는 데 필요한 추가 소프트웨어 개발 사업 추진을 위해 예비타당성 조사를 추진한다. 또 기술 고도화된 AI 반도체를 국내 데이터센터에 공급하는 방식으로 시장 수요를 창출할 계획이다.
시장에선 AI 반도체 시장이 커질수록 메모리 반도체 업체들이 유리해진다는 분석이 지배적이다. 김양팽 한국산업연구원 전문연구원은 “빅테크 기업들이 자체 메모리칩을 생산하지 않는 이상 AI 서비스가 늘수록 메모리 업체가 유리하다”고 설명했다.
김병수 기자