실시간
뉴스

반도체

딥시크 등장에 韓 AI팹리스 '미소'…"추론 시장 확대 트리거" [소부장반차장]

이승재 디노티시아 CAIO "하드웨어 비용 절감, NPU 활용도 높아질 여지 높아"

[ⓒAP=연합뉴스]
[ⓒAP=연합뉴스]

[디지털데일리 고성현 기자] 중국 인공지능(AI) 스타트업 딥시크(Deepseek)가 출시한 '딥시크 V3', '딥시크 R1'이 전세계 AI 시장을 강타하자 침체된 분위기였던 국내 AI반도체 설계 전문 기업(팹리스)들이 이 모델의 등장을 반기는 목소리를 내고 있다. 값싸고 최적화 성능이 뛰어난 모델이 나타나면서 엔비디아 중심의 AI칩 시장이 여러 갈래로 나눠질 계기를 제공했다는 이유에서다.

특히 딥시크의 AI모델 등을 기반으로 한 AI 추론 서비스들이 개발되고 있어, 신경망처리장치(NPU)를 기반으로 한 소규모언어모델(sLM) 데이터센터 등장이 늘어날 수 있을 것으로 봤다. 기존 빅테크가 잡고 있던 폐쇄적 개발 방향성이 바뀌면서 특정 분야에 특화된 서비스, 작은 규모의 가성비 서비스 등이 나올 수 있는 여지가 크게 확대됐다는 의미다.

11일 반도체 업계에 따르면 국내 AI팹리스들은 딥시크의 AI모델 기반으로 한 NPU 호환성 적용 개발을 추진하거나 이를 활용한 개발을 위한 연구에 집중하고 있다.

딥시크는 작년 12월 말 매개변수(parameter) 6710억개(671B) 규모의 대형 모델 '딥시크 V3'를 공개했고, 저번달 20일 V3를 기반으로 하는 2가지메인 모델 '딥시크 R1', '딥시크 R1-제로' 및 자체 미세조정(Fine-tunning) 모델을 공개한 바 있다. 딥시크 V3는 공개 당시 테크니컬 리포트에서 2048개에 불과한 엔비디아 대중국 보급형 모델 'H800'을 활용했다고 밝혔고, 이를 기반으로 한 R1 모델 역시 오픈AI의 고성능·고비용 모델인 'o1-mini', 'o1'와 비견한 성능을 내면서 시장에 충격을 안긴 바 있다.

위기감을 드러낸 미국 시장 반응과 달리 국내 AI 팹리스 내에서는 딥시크의 등장이 추론 기반 데이터센터의 확장이 시작되는 트리거 역할을 할 것으로 보고 있다. 엔비디아가 주력으로 내세운 GPU 외에 NPU 기반의 판도가 넓혀질 수 있는 계기로 보고 있는 것이다.

◆ 진정한 '오픈AI' 구현한 딥시크…AI 추론 생태계 넓힌다

최근 디지털데일리와 만난 이승재 디노티시아 최고AI책임자(CAIO)는 "AI를 개발하는 입장에서 봤을 때 (딥시크의 모델은) 커스터마이징할 수 있는 여지가 많이 생긴 것이로 봐야한다"며 "그동안의 AI산업에서는 학습(Traning)과 인프라 투자가 주도했다면, 이제는 추론(Inference)으로 전환이 되는 포인트가 될 수 있는 것"이라고 강조했다.

기존 메타와 구글, 마이크로소프트 등이 개발해온 초거대언어모델(LLM)은 데이터를 AI 알고리즘에 학습시키는 과정에서 엔비디아의 칩 의존도가 매우 높았다. 범용 컴퓨팅 GPU(GPGPU)의 연산 및 효율이 매우 높았던 데다, 쿠다(CUDA)를 기반으로 한 개발자 생태계의 편의성이 컸기 때문이다. NPU 성능이 학습에 적합하지 않은 점도 한몫했다.

NPU 시장의 개화가 시작될 것으로 여겨졌던 추론에서도 엔비디아의 강세는 지속됐다. 추론에서도 수백억에 달하는 매개변수를 한번에 읽어들여 추론하는 방식이 활용돼 엔비디아의 NV링크와 같은 고속 인터커넥트 시스템이 필수적이어서다. NPU는 PCIe 기반의 인터커넥트를 활용해야 하지만, 이를 주도하는 네트워킹 표준인 'UA링크'는 초기단계에 불과해 상용화가 되지 않았다.

빅테크가 주도한 고성능 LLM의 경우 선별적 활용이 어려워 미세조정·증류를 통한 서비스화가 어렵다는 점도 진입장벽으로 작용했다. 오픈AI가 내놓은 모델은 오픈소스가 공개되지 않아 타 기업의 활용이 거의 불가능하고, 메타 라마(LLama)의 경우 오픈소스를 공개했으나 요건에 따라 추가 비용이 막대해지는 등 부담이 컸다.

반면 딥시크의 모델은 전문가혼합(MoE) 기법을 활용해 추론에 대한 칩 성능 의존도를 낮춘 한편, 오픈 소스를 공개해 업체마다 미세조정(Fine-tuning) 및 증류의 가능성을 크게 열어줬다는 평가를 받는다. 딥시크 R1의 경우 추론 시 총 671B의 매개변수 중 34~37B 만을 선별적으로 읽어 효율적인 추론을 가능케 했고, 이를 MIT 라이선스로 모델을 배포해 상업적 용도로도 제한없이 사용할 수 있게 한 것이다.

이승재 CAIO는 "사실 MOE를 적용한 모델은 딥시크가 처음이 아닌데다 많은 기업들에서 연구를 해왔던 부분이기에 여전히 논란은 있으나, API 서비스 측면에서는 동급 대비 1/10 수준의 비용으로 제공하기에 비용적인 이점이 있다"며 "딥시크에 적용된 '테스트 타임 스케일링' 기법도 추론 성능을 극대화한 면이 크다"고 설명했다.

이어 이 CAIO는 "딥시크의 출현과 관계 없이 AI 업계는 컴퓨트익스프레스링크(CXL), LPDDR 메모리 중심의 추론 시장 방향을 향해 가고 있었다. 특히 값비싼 고대역폭메모리(HBM)와 비효율적인 메모리 활용 방식이 AI 서비스 장벽으로 여겨졌는데, 이 부분의 연구 방향성이 딥시크의 관점과 맞아떨어진 것"이라고 덧붙였다.

이는 딥시크의 모델이 추론 성능을 높이기 위한 최적화가 비교적 잘 이뤄져 있는데다, 소스 코드 등을 외부에 개방해 낮은 비용으로도 소형언어모델(sLM) 및 서비스를 개발할 수 있도록 했다는 의미로 풀이된다. 특히 오픈AI·메타 등의 모델을 통해 연구하기가 어려웠던 학계의 연구도 가능해져, 빅테크와 학계 사이 간극을 크게 좁힐 수 있을 것으로 내다봤다.

이승재 디노티시아 최고AI책임자 [ⓒ디노티시아]
이승재 디노티시아 최고AI책임자 [ⓒ디노티시아]

◆ 추론 서비스 세분화로 NPU 수요도 'UP'…韓 AI 팹리스도 관심

딥시크의 등장 이후 침체된 분위기였던 국내 AI칩 팹리스도 이를 기반으로 한 NPU 최적화 및 개발 방향성 확립에 힘을 싣는 모습이다. 기존에는 엔비디아의 높은 영향력으로 중동 등 미국 빅테크 진입이 어렵던 시장에 한정돼 진출했지만, 크고 작은 AI 서비스들이 늘면 늘수록 NPU를 택하는 기업도 늘어날 수 있다는 관측에서다.

박성현 리벨리온 대표는 최근 중동에서 열린 'LEAP 2025' 행사에서 "최근 딥시크 오픈소스 모델 발표로 AI 비용 효율성이 화두로 떠오르고 있는데, 우리는 이러한 시장 변화를 선제적으로 준비해왔다"며 자신감을 표하기도 했다.

CXL 스위치를 개발하는 한진기 이음 대표 역시 "이미 과거부터 예견돼왔던 추론 시장으로의 전환 과정 중 하나로, 딥시크같은 AI 경량화 모델이 나오면 AI 시스템이 다양화되는 데 기여할 것"이라며 "가성비가 좋은 모델이 메인스트림으로 올라서게 되고, 고성능 중심의 엔비디아 시스템과는 또 다른 하나의 큰 시장을 형성할 수 있을 것으로 본다"고 말했다.

이승재 CAIO는 "디노티시아에서도 딥시크 등을 활용해 AI칩 성능을 높이는 방향성을 고려하고 있다"며 "특히 학습 데이터에 대한 요구를 상당 부분 해결할 수 있다. 증류한 모델 결과 위에다 추가로 학습하는 식으로 비용을 줄일 수 있고, 리즈닝 모델을 저비용으로 활용할 수 있기 때문"이라고 전했다.

다만 우려되고 있는 딥시크의 백도어 프로그램을 통한 개인정보 침해 문제 등에 대해서는 AI칩, 서비스 등을 영위할 기업들이 조심해야 할 영역이라고 덧붙였다. 이 CAIO는 "히든 코드(hidden code)에 대한 우려가 있어 딥시크 모델 또는 딥시크 증류 모델 사용 시에는 주의를 요하지만, 이를 이용해 간접적으로 증류해 사용하는 것은 괜찮을 것으로 본다"면서도 "API서비스 형태로 사용하는 것은 (백도어 유무를) 확인할 수 없어 조심하는 것이 좋다고 본다"고 답했다.

마지막으로 이 CAIO는 "기존에는 추론에 대한 시장이 열리지 않았다는 관점이 다수다. 그러다 딥시크를 시작으로 오픈 소스 모델이 늘면 새로운 추론 시장이 열리게 되고, NPU라고 하는 제품이 그 일부를 차지할 기회가 올 것으로 본다"며 "앞으로도 AI 시장이 더욱 확대되겠으나, 이러한 모델이 추론 시장이 열리는 트리거가 되기를 기대하고 있다"고 밝혔다.

디지털데일리 네이버 메인추가
x