[2025 디지털 트랜스포메이션]
중국 베이징에 위치한 딥시크 AI 스타트업 사무실 건물에서 촬영된 딥시크 AI 간판./연합뉴스
딥시크 여파가 잠잠해지기도 전에 중국의 또 다른 스타트업 ‘모니카’가 AI 비서(에이전트) 마누스를 출시했습니다. 마누스도 낮은 비용으로 높은 성능을 구현해 이제 풍부한 자본력이 바탕이 됐던 AI 패권 경쟁의 방향성은 모호해졌습니다. 이제 AI 모델은 어떻게 발전할까요. 조선일보와 글로벌 컨설팅 기업, 보스턴컨설팅그룹(BCG) 코리아가 ‘넥스트 트렌드(Next Trend)’를 예측해 봤습니다.
최근 한 달간 중국 AI 스타트업이 보여준 ‘쇼크’의 행보는 ‘가성비 AI 모델의 등장’이라는 핵심 키워드 외에도 많은 시사점과 질문을 남겼다. 주목할 점은 어제와 오늘이 다른 AI 발전 속도와 AI 패권의 향방이 더욱 모호해졌고 이 가운데 AI의 미래 또한 더욱 궁금해졌다는 것. 한 가지 확실한 건 AI 시장의 확대 가능성이다. 딥시크의 오픈형 모델은 다양한 응용 사례를 촉진시켜 AI 시장의 파이뿐 아니라 AI 기술의 방향성을 논하는 중요한 단초를 제공했다.
◇딥시크 쇼크, 무엇을 남겼나
우선 딥시크 성공의 핵심 요인을 먼저 살펴볼 필요가 있다. 첫째는 ‘거대 모델=고비용’ 공식을 깨고, 초거대 모델이 전부가 아님을 증명했다는 것이다. 딥시크의 AI 모델 R1은 수백억 단위의 파라미터(매개 변수)를 가진 초거대 모델이면서 기존 대비 훈련 비용을 크게 낮췄다는 점에서 ‘쇼크’의 경지로 주목받았다.
두 번째는 모델 크기를 무작정 키우지 않고도 충분한 성능을 확보했다는 것이다. 이는 FP8 연산(낮은 정밀도 구간 활용)과 ‘제로샷 학습(Zero-Shot Reasoning·라벨링 없이 추론 능력을 강화)' 같은 기법을 결합한 덕분이다. 연산 최적화와 추론 과정 개선이 결합되면 파라미터 확장 대신 효율성 중시 접근으로도 초거대 모델급 결과물이 나올 수 있음을 증명한 것이다.
세 번째는 지식 증류(Distillation)를 통해 여러 소형 모델을 공개했다는 것이다. 기업이나 연구 기관은 목적·예산에 따라 이 소형 모델을 골라 사용할 수 있게 됐고, 이는 “AI 모델도 상황별 최적화가 가능하다’”는 메시지를 각인시키는 계기가 됐다. 결과적으로 ‘비용 대비 성능’을 더욱 세밀하게 조율할 수 있는 길이 열렸다는 점에서 큰 반향을 일으켰다.
일러스트=조선디자인랩·Midjourney
네 번째는 딥시크가 오픈 소스로 모델 공개를 한 것이다. 개발자나 연구자, 기업 모두 아무런 제한 없이 모델을 직접 다운받고, 다양한 목적으로 실험해볼 수 있기 때문에 피드백과 개선 속도가 빨라졌다. 폐쇄형 모델에 비해 진입 장벽이 낮고, 사용자 맞춤형 최적화를 유도해 산업 전반의 효율화를 촉진한다는 의미가 있다.
◇딥시크가 앞당긴 ‘AI 모델 효율화 시대’
딥시크가 보여준 효율화 기조는 학계와 연구 현장에서도 폭넓게 공감대를 얻었다. 기존 초거대 모델 위주의 접근을 보완하거나 대체할 수 있는 다양한 시도에 영향을 줬다.
최근 스탠퍼드대 등 학계에서 여러 소형 모델이 상호 협력해 문제를 해결하는 프로젝트를 진행 중이다. 여기서 핵심은 “어느 시점에 어떤 에이전트를 사용하는 것이 가장 효율적인가”라는 의사 결정이다. 초거대 모델 하나에 전적으로 의존하던 과거 방식과 달리, 여러 중소형 모델이 각자의 전문 영역에 집중해 조화를 이루면 연산 부담과 중복을 줄이고 효율성을 최대화할 수 있다는 실험 결과가 나오고 있다. 이런 협업 방식은 복잡한 문제를 해결할 때 사람이 각 분야 전문가로 구성된 팀을 조직해 시너지를 내는 모습과 유사하다.
그래픽=조선디자인랩 정다운
딥시크의 특징 중 하나인 ‘새로운 정보를 수시로 받아들이는 능력’도 주목해야 한다. 데이터를 모델 내부 파라미터만으로 모든 지식을 담아두기보다 별도의 외부 메모리를 구축해 AI가 장기적으로 축적하는 정보를 관리하도록 하는 ‘외부 메모리(Generative Memory)’ 접근을 시험하고 있다. 예컨대 스탠퍼드 대학교 기초모델연구센터(CRFM)에서는 대화 기록, 이벤트 로그, 운영 데이터 등을 AI가 필요할 때마다 검색·갱신하고, 기존 파라미터 대신 이 외부 메모리에 의존해 지속적으로 학습하거나 재조합하도록 하는 구조를 연구하고 있다.
이 방식은 모델을 전부 갈아엎지 않고도 최신 정보를 유연하게 반영할 수 있기 때문에 예측 적합성 유지와 비용 절감을 동시에 꾀할 수 있다. 마치 사람이 메모장을 소지해 필요할 때마다 아이디어나 정보를 꺼내 살펴보듯 AI도 ‘외부 메모장’을 두고 스스로 지식 업데이트를 해나가는 개념이라고 볼 수 있다.
딥시크가 보여준 CoT(Chain-of-Thought) 계열 접근도 주목받고 있다. 기존에 구글, 오픈AI, 메타 등은 수학 문제나 논리 퍼즐을 풀 때, AI가 중간 사고 단계를 거치도록 설계해 정확성과 일관성을 끌어올리는 기법이다. 최근에는 ToT(Tree-of-Thought)처럼 여러 갈래의 추론을 동시에 전개하거나, PoT(Program-of-Thought)처럼 모델이 짧은 코드를 작성·실행함으로써 자가 검증을 수행하는 방식으로 진화하고 있다. 이 방식은 작은 모델도 자신이 어떤 근거로 특정 답을 도출했는지 내부 검토가 가능하다는 의미다.
그래픽=조선디자인랩 정다운
◇기업이 취해야 할 실행 전략
현실적으로 기업은 학계나 연구 기관 또는 AI 스타트업처럼 AI의 발전 방향이나 트렌드를 이끌거나 미리 예측하기 어렵다. 그렇다고 하루가 다르게 빠르게 변하고 있는 AI 산업과 기술 트렌드를 그저 바라만 보고 새로운 기술이나 서비스가 등장할 때마다 부화뇌동하며 끌려다닐 수는 없다. AI를 활용한 비즈니스 전환이나 서비스 출시 또는 기업 내 다양한 비즈니스 현장에서 AI 도입을 고려한다면, 다음의 전략들은 늘 기본 전제가 돼야 한다.
기업의 AI 활용은 모든 문제를 한 모델로 해결하려 하기보다, 고객 상담이나 연구개발(R&D)과 같은 우선순위가 높은 영역을 선별해 맞춤형 모델을 도입하는 쪽이 효율적이다. 일부 대기업은 이미 여러 소형·중형 모델을 병행해 부서별 요구 사항을 다르게 충족하고 있으며, 이러한 접근은 초거대 모델을 전사적으로 쓰는 것보다 운영 비용과 유지 보수를 낮추는 데 도움이 된다.
AI 모델은 초기 도입 시점보다 운용 기간이 길어질수록 가치가 커진다. 이를 위해서는 ‘데이터 파이프라인’을 체계적으로 구축해, 업무 기록·센서 데이터·사용자 응대 이력 등을 지속적으로 수집·정제·저장하는 작업이 필수적이다. 장기 메모리나 ‘검색 증강 생성(RAG) 기법’을 적절히 도입하면 사내에 축적된 지식을 AI가 수시로 업데이트하며 의사 결정의 정확도를 높일 수 있다.
그래픽=백형선
CoT(Chain-of-Thought)나 ToT(Tree-of-Thought) 같은 기법을 부분적으로 적용하면, AI가 답변을 도출하는 과정에서 논리적인 단계를 거치는 모습을 어느 정도 해석할 수 있다. 금융·의료·공공 분야 등 규제 산업은 이러한 추론 과정을 구조화하는 것이 향후 리스크를 줄이는 데 큰 도움이 된다.
중소기업이나 연구 기관이라면 예전처럼 초거대 모델에 전적으로 의존하지 않고, 효율적 구조를 차용하여 필요한 성능을 확보할 수 있다. 반면 대기업이라고 해서 무조건 거대 모델만 추구할 것이 아니라, 효율화된 기술을 접목해 기존 모델의 한계를 보완하고 운영 비용을 줄이는 방향을 모색할 수 있다. 곧 AI가 더 폭넓은 산업 분야와 조직 규모에 안착하게 될 것임을 암시한다.
김성봉 BCG코리아 AI·디지털 부문 파트너
Copyright © 조선일보. 무단전재 및 재배포 금지.