중국 AI 스타트업 ‘딥시크’가 글로벌 AI 시장을 강타하고 있다. 1대당 수천만원에 달하는 엔비디아의 첨단 AI칩 없이도 오픈AI·메타를 능가하는 AI로 떠오르면서 단숨에 AI 시장을 주도해온 미국의 위상을 흔들고 있는 것이다. 일각에선 고성능 반도체 수출을 막은 미국의 대중 제재가 무용지물 아니냐는 분석까지 나오고 있다.
26일(현지시각) IT 매체 테크크런치에 따르면 딥시크가 지난 20일 출시한 추론 특화 AI모델 ’딥시크-R1′이 성능 테스트에서 오픈AI의 ‘o1(오원)′을 일부 능가했다. R1은 미국 수학경시대회 벤치마크 테스트에서도 79.8%의 정확도를 기록해 o1(79.2%)을 앞섰고 코딩 테스트에서는 65.9%의 정확도로 o1(63.4%)보다 나은 결과를 보였다. 딥시크 R1의 이같은 성능 우위가 알려지면서 R1은 27일 애플 앱스토어 무료 앱 다운로드 순위에서 챗GPT를 제치고 1위에 올랐다. 파이낸셜타임스는 딥시크에 대해 “글로벌 테크 업계를 충격에 빠뜨린 다크호스”라고 전했다.
미국의 첨단 테크 제재로 중국 기업들이 당분간 미국 AI산업을 추격하기 어려울 것이라는 전망을 뒤엎고 딥시크가 이같은 성과를 거둔 비결은 무엇일까.
◇오픈AI,메타도 안한 기술 시도해 장벽 넘어
딥시크의 돌풍은 오픈AI의 o1에 필적하는 추론 모델인 R1을 출시하면서 가시화됐다.R1 모델이 오픈소스로 글로벌 시장에 풀리면서 전세계 AI 개발자들이 적극적으로 사용하기 시작했고, 이들 사이에서 R1모델의 성능과 추론 능력에 대한 호평이 나오면서 급속도로 확산된 것이다. 오픈 소스는 소프트웨어 소스 코드를 누구나 보거나 수정하고, 배포할 수 있도록 공개하는 것을 말한다. 오픈소스는 전세계 개발자들이 미리 짜놓은 코드를 가져다가 개발에 적용할 수 있어 개발 비용, 시간이 크게 단축된다.
업계에선 딥시크가 개발 비용을 획기적으로 줄이면서 고성능 AI를 개발한 비결 중 하나로 이 오픈소스를 꼽는다. 딥시크는 이미 공개된 AI 관련 소스코드 등을 바탕으로 개발됐다. 기존 요리 레시피를 참고해 새 요리를 만드는 것과 비슷하다. 수많은 개발 인력과 비용을 들여 AI 구동에 필요한 모든 코드를 개발할 필요가 없고 이미 검증된 코드를 가져다 사용하기 때문에 단 2개월만에 적은 비용으로 고성능 AI를 내놓을 수 있었던 것이다.
하지만 딥시크의 성공 비결을 오픈소스에서만 찾기 어렵다. 오픈소스는 마크 저커버그가 이끄는 메타가 앞서 AI개발에 활용했다. 메타는 적은 매개변수로도 오픈AI에 버금가는 성능을 구현했다. 다만 메타는 학습 데이터 양과 투입된 AI반도체가 오픈AI보다 많아 수천억원에 달하는 개발 비용이 들었다. 반면 딥시크는 이보다 훨씬 적은 비용만으로 오픈소스 기반 생성형AI개발에 성공했다. 어떤 차이가 있을까.
지난 20일 공개한 딥시크의 R1 모델 논문(DeepSeek-R1: Incentivizing Reasoning Capability in LLMs via Reinforcement Learning)에서 그 답을 찾을 수 있다. 딥시크는 미국 기업과의 기술 격차를 줄이기 위해 몇 가지 새로운 시도를 감행했다.
우선 딥시크는 AI에 ‘전문가 혼합’(Moe, Sparse Mixture of Experts) 기법을 적용했다. Moe는 AI가 특정 작업에 필요한 부분만 선택적으로 사용하도록 해서 개발 효율성을 획기적으로 높이는 기술이다. 이는 마치 학교에서 과목별 전문 교사들이 필요한 부분만 정리해 알려주는 교육 방식과 같다. 시험을 앞두고 1타 강사들에게 족집게 과외를 받아 성적을 끌어올리는 것처럼 딥시크도 2개월이라는 짧은 개발 기간에 고도의 추론 연산 성능을 구현할 수 있었던 것이다.
딥시크가 지난해 내놓은 V3의 경우 총 6710억 개의 매개변수가 있는데 실제 구동할 때에는 340억~370억개만 활성화된다. 최소한의 매개변수 활성화를 통해 추론에 드는 컴퓨터 사용 비용과 메모리 사용량을 크게 줄이면서 AI 연산 성능은 높인 것이다. 딥시크는 기존 AI모델 대비 메모리 사용량을 5~13% 수준으로 줄였다고 밝혔다.
딥시크는 데이터 학습 과정에서도 혁신을 선보였다. AI 개발 과정에서 반도체 구입 비용과 더불어 데이터 양 확보에 많은 자금이 필요한데 이를 줄이는 데 성공한 것이다.
딥시크 R1은 일반적으로 사용되는 지도학습을 거치지 않고 바로 강화학습을 통해 AI를 학습시켰다. 지도학습은 사람이 직접 양질의 데이터를 만들어 모델을 학습시키는 방식이다. 딥시크는 대신 강화학습만으로 AI모델이 스스로 학습에 필요한 데이터를 탐구하고 학습하도록 했다.
또 AI 연산 성능이 본격 고도화된 강화학습 과정에서도 컴퓨팅 자원을 아낄 수 있는 방식을 채택했다. 통상 강화학습에서는 AI모델이 무엇을 학습해야 할지 알려주는 절대적 평가 모델이 있는데, 딥시크는 이를 생략하고 ‘그룹 접수’라는 새로운 방식을 적용했다. AI의 여러 행동을 그룹으로 묶어서 비교하고, 가장 좋은 결과를 찾아내는 방식이다.
테크업계 관계자는 “딥시크는 상대적으로 구형인 반도체를 쓰면서 실제 개발 과정에서 필요한 학습 과정도 새로운 혁신을 선보였다”며 “하드웨어와 소프트웨어 양 측면에서 AI 개발 비용을 획기적으로 줄인 사례”라고 말했다.
더 무서운 건 향후 딥시크의 AI 생태계에서의 확장성이다. 딥시크는 오픈소스를 활용해 개발한 자사 AI모델을 다시 오픈소스에 공개했다. 전세계 소프트웨어 개발자들이 딥시크AI를 시험하고 개선할 수 있는 길이 열린 것이다. 각국 개발자들이 개발에 참여하기 때문에 앞으로 더 진보한 AI를 개발할 수 있다.
딥시크는 오픈AI가 목표로 내건 AGI(범용 인공지능) 개발에도 도전장을 내밀고 있다. AGI는 사람의 명령 없이도 인간의 지능 수준을 뛰어넘어 자율적으로 판단할 수 있는 능력을 갖춘 AI를 말한다. 딥시크가 AI 업계에서 궁극의 기술로 불리는 AGI에서 오픈AI의 강력한 경쟁자로 부상한 것이다.
일각에선 딥시크의 성능과 가성비에 대한 시장 반응이 지나치게 부풀려졌다는 지적도 나온다. 딥시크는 엔비디아의 구형 칩인 H800만으로 AI를 개발했다고 밝혔는데 실제로는 딥시크의 모기업이 대당 1300만원이 넘는 엔비디아 첨단 칩 A100을 1만개 가량 보유하고 있고 딥시크 AI의 초기모델이 이를 기반으로 개발한 것으로 알려졌다. 오픈AI의 AI를 능가한다는 평가를 받는 딥시크의 R1이 이를 기반으로 나온 후속 모델이기 때문에 A100 구입 비용도 개발비에 포함돼야 한다는 것이다. 또 딥시크는 엔비디아로부터 H800칩을 구매한 게 아니라 시간당 2달러에 대여해 사용했다.
◇글로벌 AI 업계에 미칠 파장은?
딥시크의 등장은 글로벌 AI 업계를 긴장시키고 있다.최근 들어 천문학적 비용이 들어가는 AI 개발에 대한 회의적인 시선이 나오는 가운데 딥시크가 저비용으로 고성능 AI 개발에 성공하면서 더 이상 AI에 더 많은 투자가 필요하지 않다는 지적이 제기되는 것이다.
미국 AI기업들은 딥시크 경계에 나섰다. 메타는 딥시크 기술을 분석하는 워룸을 4개 설치해 대응하고 있다. 사티아 나델라 마이크로소프트 CEO(최고경영자)는 최근 “딥시크 모델은 추론 오픈 소스 모델을 실제로 효과적으로 구현한 방식과 슈퍼 컴퓨팅 효율성 측면에서 매우 인상적”이라며 ”우리는 중국에서의 발전을 매우, 매우 심각하게 받아들여야 한다”라고 했다.
미국 정치권에서도 중국 AI를 경계하는 목소리가 나왔다. 도널드 트럼프 미국 대통령은 27일 딥시크에 대해 “딥시크의 AI 개발이 정말 사실이고 진실이라면, 나는 긍정적으로 생각한다”며 “중국 기업이 출시한 딥시크가 우리 산업이 이기기 위해 경쟁하는 데 초점을 맞춰야 한다는 경각심을 일깨워주길 바란다”고 덧붙였다.
백악관의 ‘AI·암호화폐 차르’로 임명된 데이비드 색스 전 페이팔 최고운영책임자(COO)도 자신의 엑스(X·옛 트위터) 계정에서 “딥시크 R1은 AI 경쟁이 매우 치열하고 트럼프 대통령이 중국도 똑같이 할 것인지 묻지 않고 미국 AI 기업의 발목을 잡았던 바이든 행정명령을 철회한 것이 옳았다는 것을 보여준다”고 밝혔다.
최인준 기자
https://www.chosun.com/economy/tech_it/2025/01/28/U3VGOJRX2NEFPMXK3FL5TBQNQU/?utm_source=kakaotalk&utm_medium=shareM&utm_campaign=Mnew