AI가 생성한 이미지. 챗GPT 제공
한국 AI가 중국에 가격은 물론 품질에서도 밀리고 있다는 진단이 나왔다. 한때 'AI 강국'을 자부했지만 기술 격차가 벌어지며 경쟁력이 흔들리고 있다는 것이다. 거대 언어 모델(LLM) 개발에서도 중국이 앞서가면서 이제는 산업별 특화 모델로 돌파구를 찾아야 한다는 목소리가 커지고 있다.
18일 황승진 미국 스탠퍼드 경영대학원 석좌명예교수는 국회에서 열린 'AI 대전환 속 대한민국의 길: 세계는 어떻게 준비하는가' 토론회에서 "그동안 한국이 AI에서 가격 면에서는 밀려도 품질은 앞선다고 자부했지만 이제는 완전히 박살났다"며 "중국이 가격뿐만 아니라 품질에서도 앞설 가능성이 높다"고 말했다.
그러면서 "거대 언어 모델(LLM) 개발이라는 1차 방어선은 이미 뚫렸다"며 "이제는 산업별 특화 LLM을 개발해 AI를 실제 활용하는 단계에서 2차 방어선을 구축해야 한다"고 강조했다.
그는 국가별 AI 발전 정도를 보여주는 '토토이즈 지표'를 언급하며 "한국의 AI 모델 개수는 27개 수준인데 중국은 54개로 2배에 달한다"며 "이는 딥시크나 마누스가 나오기 이전의 지표이므로 지금 지표를 업데이트하면 상당히 올라갈 것"이라고 분석했다.
LLM은 텍스트와 이미지를 생성하고 외부 파일과 연동해 업무를 자동화하는 기술로 챗GPT 등장 이후 전 세계에서 경쟁적으로 개발되고 있다. 황 교수는 "이제 AI 모델 개발은 누구나 할 수 있는 기술이 됐다"며 "기업들은 제조·군사·금융 등 각 산업에 특화된 AI 모델을 구축해야 경쟁력을 가질 수 있다"고 했다.
그는 금융 데이터 기업 블룸버그가 만든 '블룸버그GPT'를 사례로 들었다. 블룸버그가 보유한 방대한 금융 데이터를 인터넷상의 데이터와 결합해 만든 이 모델은 외부 기업이 따라오기 어려울 정도로 독보적인 경쟁력을 갖추고 있다는 것이다. 황 교수는 "기업들이 AI 모델을 활용해 전략을 세우고 컨설팅을 하면 오픈AI 수익의 수십 배를 벌어들일 수 있다"고 말했다.
또 스탠퍼드 의대에서 개발한 암 진단·치료 AI 모델 '머스크(MUSK)'를 예로 들며 특정 산업에 맞춘 AI 모델이 더욱 강력한 경쟁력을 가질 수 있다고 강조했다.
이날 토론회에서는 중국의 AI 반도체 전략에 대한 분석도 나왔다. 이우근 중국 칭화대 전자공학과 교수는 "중국 AI 산업의 약진은 공학적 측면에서 당연히 일어날 수밖에 없는 단계이고 앞으로 더욱더 많은 기술이 나오고 본격적인 춘추전국시대가 될 것"이라며 "중국은 막대한 내수 시장이 있고 처음부터 목표를 10%도 안 되는 자국 반도체 생산 비율을 75%로 인상하는 데 뒀다"고 말했다.
그는 "중국은 막대한 내수 시장을 바탕으로 빠르게 AI 자립을 이루고 있다"며 "반면 한국은 강력한 내수 시장이 없는 상황에서 단순히 초격차 기술만으로 중국을 상대하기 어려운 만큼 반도체 장비나 파운더리(위탁생산) 같은 분야에서 기회를 찾아야 한다"고 조언했다.
전문가들은 한국이 독자적인 '파운데이션 모델'을 확보하는 일도 놓쳐서는 안 된다고 강조했다. 송경희 성균관대 교수는 "파운데이션 모델이 가장 기초 기술이기 때문에 이 분야에서 기술력을 확보하지 않으면 AI 기술 관문을 넘을 수 없다며 소버린 AI 모델 개발도 중요하다"고 말했다. 김경만 과학기술정보통신부 AI기반정책관도 "투트랙 전략이 중요하다며 AI 산업화를 끌어내는 것도 중요하지만 외국에 앞선 파운데이션 모델을 개발하는 일을 배제할 필요가 전혀 없다"고 했다.
강도현 과기정통부 제2차관은 "정부와 국회는 AI 인프라 확충에 대해 심도 깊게 논의하고 있다"며 "한국은 독자적 LLM에 있어 숫자는 부족하더라도 세계 3위권을 유지하고 있는 만큼, 열심히 상상력 발휘해 발전시키겠다"고 말했다.
AI 경쟁력을 높이기 위해서는 인재 양성과 규제 완화가 시급하다는 지적도 나왔다. 황 교수는 "사람을 키워야 하고 제도적으로 이들이 연속해서 비즈니스할 수 있게 만들어줘야 한다"며 "AI에 직업을 뺏기는 게 아니라 AI를 할 줄 아는 사람에게 직업을 뺏기는 것이라면서 다양한 형태의 재교육이 필요하다"고 강조했다.
규제 완화에 대해서는 이우근 교수가 "가장 좋은 방법은 규제를 풀어주고 지켜본 다음에 규제하는 것"이라고 주장했다.
이날 토론회에는 메타의 규제 및 정치 분야 디렉터 셰인 카힐도 참석해 유럽연합(EU)의 AI 규제법이 시행된 이후 700여 개의 미국 기업이 AI 법안을 위험 요소로 인식하고 있다고 전했다.
아울러 AI 기술이 초래할 수 있는 안전 문제에 대한 논의도 이뤄졌다. 황 교수는 스탠퍼드대 AI 안전연구소를 소개하며 "인간과 AI 간 공정한 관계를 정립하는 것이 중요하다"고 말했다.
마이크로소프트(MS) 책임 있는 AI 부문 디렉터는 "거버넌스와 혁신 간 균형을 도모해야 한다"며 "AI 시스템이 수반하는 리스크를 최소화하는 방법, 그리고 규제 관련 샌드박스를 만들어 가장 리스크가 높을 것으로 예상되는 경우에 대한 안전성을 가하는 것이 중요한 부분"이라고 강조했다.
유진아기자 gnyu4@dt.co.kr
Copyright © 디지털타임스. 무단전재 및 재배포 금지.