• [딥시크 쇼크 ① 비결은] 가성비 학습·오픈소스가 핵심 실제비용·개인정보 보호 논란도 커져

    입력 : 2025.03.07 17:42:10

  • 딥시크 기적은 어떻게 가능했을까.

    딥시크는 모델 공개와 함께 ‘R1 강화학습 기반 추론 모델에 관한 논문’을 발표했다.

    먼저 기존 AI의 학습 과정을 살펴보자. 오픈AI는 대규모 데이터로 ‘사전학습’이 진행된 모델에 ‘지도학습(Supervised Learning)’과 ‘강화학습(Reinforcement Learning)’을 덧붙인 3단계를 거친다.

    지도학습이란 인간이 문제의 정답을 알고 AI가 이를 알아내도록 훈련시킬 때 활용한다. 교사 도움을 받아 특정 입력값(input)을 부여했을 때 ‘정답 출력값(output)’으로 안내하며 기계적으로 학습하는 식이다.

    이 단계가 끝나면 ‘강화학습’을 시작한다. 강화학습은 AI에 보상(reward)과 벌칙(penalty)을 주는 방식으로 훈련시킨다. AI가 특정 환경 아래 자율적으로 행동했을 때 보상이 주어지고, 최대치의 보상을 끌어내는 방향으로 시행착오를 거치며 의사결정을 학습한다.

    이후 사용자 맞춤형으로 최적화하는 ‘미세 조정(Fine-Tune)’을 끝으로 결과물을 낸다. 다만 이 과정에서 비용이 크게 든다. 인간이나 AI가 모든 결과물에 ‘라벨(label)’을 붙이고, 어떤 결과물이 최선인지 일일이 파악한다. 정확도를 높일 수 있지만 그만큼 상당한 노동력과 비용이 투입될 수밖에 없었다.

    딥시크는 사전학습이나 지도학습 없이 강화학습만으로 결과물을 낸다. 대규모 텍스트 데이터를 공부하지 않고, ‘규칙’에 따라 스스로 배우고 진화하는 방식이다. 이러한 자동화를 통해 시간과 비용을 줄이며 대규모 훈련을 할 수 있었다. 이는 이세돌 9단과 바둑 대결을 벌였던 구글의 알파고제로와 비슷하다. 알파고제로는 바둑 규칙 이외에 정석이나 기보 등 어떤 사전 지식이 없는 백지 상태에서 스스로 학습하고 성능을 개선하는 방식이었다. R1 모델은 추론 과정에서 결과물을 재평가하고 수정하며 AI 모델의 대표적인 오류인 환각(Hallucination) 현상을 보완하고 정확도를 높였다. 딥시크는 이러한 기능을 ‘아하 모멘트(Aha moment)’라고 부른다.

    사진설명

    딥시크는 전문가들은 질문이 들어오면 특정 영역만 활성화해 답하는 ‘전문가 혼합(MoE·Mixture of Experts)’과 함께 ‘지식 증류’ 기술을 활용했을 것으로 보인다.

    딥시크 방식은 이렇다. 어떤 분야의 질문에도 최적의 대답을 할 수 있는 ‘대형 AI 모델’과 특정 영역에 특화한 ‘소형 AI 모델’에 같은 질문을 입력한다. 대형 AI 모델이 A라는 답을, 소형 AI 모델이 B라는 답을 출력한다. 처음에는 A와 B 사이에 큰 차이가 날 수 있다. 좀 더 복잡하고 정교하게 설계된 A가 내놓은 답을 좀 더 정답에 가깝다고 보고, A라는 답을 소형 AI 모델에 주입하는 것이 ‘지식 증류’다. 소형 AI 모델은 A와 B의 차이를 ‘손실값’이라고 판단해 손실값을 최소화하는 방향으로 학습한다. 이런 방식으로 여러 차례 학습한 소형 AI 모델은 대형 AI 모델이 제시한 답에 근접한 출력값을 내놓을 수 있다. 학계에선 대형 AI 모델을 ‘교사 모델’, 소형 AI 모델을 ‘학생 모델’로 부른다.

    학습 과정 공개하며 신뢰도 높여

    딥시크는 학습 과정을 투명하게 공개했다는 점에서도 좋은 평가를 받았다. 대부분 글로벌 기업이 최종 점수만 공개하는 반면, 딥시크는 정확도가 꾸준히 향상되는 전체 과정을 공개했다. 딥시크의 ‘공개소스’ 정책은 중국 기술에 대한 신뢰도를 높이는 계기가 됐다.

    아울러 소수점 계산을 줄이는 방식도 비용을 크게 절감시켰다. 기존 AI는 숫자를 소수점 이하 30여 자리까지 다룬다. 하지만 딥시크는 8자리로 줄였다. 이 정도로도 충분히 정확한 분석과 예측이 가능하다고 판단해서다. 이를 통해 딥시크는 메모리 사용을 75% 절감했다. 문장을 읽는 방식도 달랐다. 기존 AI가 단어를 하나씩 떼어 읽는 식이라면 딥시크는 문장 전체를 단번에 읽는 방법을 썼다. 결과적으로 속도가 2배 더 빨라졌다.

    또한 기존 AI의 경우 한 사람이 변호사·의사·기술자 등의 역할을 모두 수행하도록 설계됐다면, 딥시크는 필요한 경우 해당 분야 전문가를 불러오도록 해 효율성을 높였다.

    딥시크는 AI 모델 개발 방식과 관련한 논쟁에도 불을 붙이고 있다. 지금껏 AI 선두권 주자들은 오픈AI·구글 등 폐쇄형 모델이 주도했다. 자신들이 개발한 AI 모델의 작동 방식을 꽁꽁 숨겨 외부에 공개하지 않는 형태다. 그런데 딥시크나 메타 등 AI 후발 주자들은 개발 정보를 일반에 공개해 많은 사람이 이용할 수 있게 한다. 이렇게 되면 일종의 ‘집단 지성’을 통해 AI 모델 발전이 빨라지고 개발사가 직접 부담해야 하는 개발비를 줄일 수도 있다.

    오픈소스 진영에 힘이 실리자, 오픈AI가 차세대 오픈소스 프로젝트를 준비하고 있다고 밝히면서 최신 소형 인공지능(AI) 모델 등을 오픈소스로 공개할 수도 있다는 가능성도 내비치고 있다.

    <잠깐용어> 오픈소스 AI 모델
    개발자가 자신이 만든 AI 모델의 알고리즘과 설계 방식 등 관련 정보를 공개하는 방식. 외부로 이러한 정보를 공개하지 않는 폐쇄형 AI 모델의 반대 개념이다. 다른 기업과 개발자들이 공개된 정보를 이용해 새로운 프로그램을 개발하는 과정에서 개선 방안을 제시해주기 때문에 비용을 덜 들이고도 AI 모델을 빠르게 발전시킬 수 있다는 게 장점이다.
    사진설명

    샘 올트먼 오픈AI CEO는 2월 17일(현지시간) 자신의 엑스(X)를 통해 “오픈AI의 다음 오픈소스 프로젝트로 o3-미니처럼 작지만 여전히 그래픽처리장치(GPU)로 구동해야 하는 모델이 활용도가 높을지, 아니면 휴대전화에서 구동할 수 있는 크기의 모델이 나을지” 선택해달라며 투표를 올렸다. 올트먼 CEO가 언급한 o3-미니의 경우 추론에 특화된 소형 모델로 오픈AI가 지난 1월 공개한 최신 모델이다. 오픈AI는 음성인식 AI인 ‘위스퍼’를 오픈소스로 공개한 바 있긴 하지만 핵심 모델인 거대언어모델(LLM) 등에 있어서는 폐쇄형 전략을 펼쳐왔다.

    다만 중국의 딥시크가 고성능 추론형 모델인 딥시크-R1을 오픈소스로 공개하는 등 오픈소스 진영에 힘이 실리면서, 오픈AI와 경쟁하고 있는 일론 머스크 테슬라 CEO의 AI 기업 xAI는 이날 새로운 모델인 ‘그록 3’를 발표하면서 이전 버전인 ‘그록 2’를 수개월 내에 오픈소스로 공개할 예정이라 밝혔다.

    하정우 네이버클라우드 AI이노베이션 센터장은 “오픈소스 AI 모델은 생성형 AI 서비스를 비롯해 로봇, 기기, AI 에이전트, 클라우드, 데이터센터까지 여러 산업에서 활용돼 최종적으로 ‘AI 생태계’를 구축하는 핵심 역할을 할 것”이라며 “AI 생태계를 장악한다는 건 관련 공급망(밸류체인) 전체를 대부분 장악할 수 있다는 이야기”라고 설명했다.

    문제는 없나?
    정부 부처들이 2월 6일 중국 인공지능(AI) 딥시크(Deepseek) 접속 차단에 대거 나섰다. 외교부, 국방부 등은 접속을 차단했거나 차단할 예정이다. <사진 연합뉴스>
    정부 부처들이 2월 6일 중국 인공지능(AI) 딥시크(Deepseek) 접속 차단에 대거 나섰다. 외교부, 국방부 등은 접속을 차단했거나 차단할 예정이다. <사진 연합뉴스>

    딥시크 모델이 호평받고 있지만, 불투명한 구석도 적지 않다.

    R1에 들어간 총 비용이 알려진 것보다 높을 것이라는 주장이 대표적이다. 딥시크는 R1에 쓰인 개발·훈련 비용을 공개하지 않았다. 딥시크는 관련 보고서에서 “선행 연구와 데이터, 알고리즘 등에 들어간 비용을 제외한 ‘공식 훈련(official training)’ 비용만 포함된 것”이라는 설명을 덧붙였다. V3의 총 개발비는 다를 수 있다는 뜻이다. R1 학습 시 어떤 반도체 칩을 사용했는지도 의문점이다.

    딥시크는 V3에 엔비디아의 중국 수출용 H800을 사용했다고 밝혔다. 하지만 R1에는 이보다 높은 사양의 칩이 포함됐을 것이라는 관측도 나온다. 미국 반도체 연구 업체 세미애널리시스는 딥시크가 R1 개발에 투입한 하드웨어 비용이 총 5억달러(약 7300억원)를 웃돌 것이라고 주장했다. 알렉산더 왕 스케일AI 최고경영자(CEO)는 CNBC와 인터뷰에서 “딥시크가 약 5만 개의 엔비디아 H100을 갖고 있는데, 미국의 수출 통제 때문에 이를 공개하지 않을 것”이라고 말했다.

    특히 개인정보를 과도하게 취득하고, 데이터 처리 방식이 투명하지 않다는 우려가 제기됐다. AI 모델 학습을 위해 이용자 이름·생년월일 등 기본 정보 외에도 인터넷 IP 주소, 고유 장치 식별자, 키 입력 패턴까지 수집하는 것으로 알려졌기 때문이다. 특히 중국에 위치한 딥시크 서버에 이용자 정보가 저장돼 데이터 악용 우려가 제기됐다.

    이에 미 해군과 국방부, 하원이 딥시크 접속을 금지하고, 일본·대만 등 각국 정부가 공공 부문을 중심으로 딥시크 사용을 금지했다. 국내에서도 주요 부처와 기관이 딥시크금지 조치를 내렸다. 우리나라가 앱 신규 다운로드를 중단한 것은 이탈리아 정부의 조치에 이은 것이다. 개인정보위는 딥시크 서비스 출시 직후 본사에 개인정보 수집·처리 방식과 관련한 공식 질의서를 보냈고 자체 분석을 진행한 결과 제3자 사업자와의 통신 기능 및 개인정보처리 방침상 미흡한 부분이 확인됐다고 밝혔다.

    딥시크가 개인정보 유출을 넘어 악성코드 개발이나 보안 시스템 우회 등 AI를 활용한 사이버 공격 도구로 변질될 위험성도 제기된다. 실제 보안기업 팔로알토네트웍스는 최근 자체 연구기관 보고서를 통해 딥시크가 AI 보안 가드레일을 우회하는 ‘탈옥’ 공격에 취약하고, 악성 콘텐츠 생성에도 쉽게 악용될 수 있다는 조사결과를 내놨다. 연구진은 테스트를 통해 딥시크가 데이터 탈취 도구, 키로거, 발화장치 제작 등 보안 위협이 되는 콘텐츠를 생성할 수 있음을 확인했다.

    특히 보안 측면에서 전문가들이 주목하는 부분은 공공 데이터다. 국가적 입장에서 공무원이 챗GPT나 딥시크 같은 생성형 AI 서비스를 이용할 때 생산성이 향상된다는 사실은 명백하다. 그러나 이 경우 공공 데이터가 해외로 유출될 수 있다는 문제가 있다. 연구기관이 원천 기술을 갖고 있을 때 문제는 심각하다. 국부 유출로 이어질 수 있기 때문이다.

    김용대 카이스트 전기전자공학부 교수는 “국가 입장에서 국내 모델을 사용할 수 없다면 중국이나 미국 모델에 의존할 수밖에 없다”며 “우리나라가 이 같은 이슈에서 자유로우려면 우리 규정에 맞는 토종 모델을 만들고 전폭적인 지원을 쏟을 필요가 있다”고 말했다.

    중국 내 데이터 한계 보여

    딥시크의 AI 윤리 문제도 수면 위로 떠올랐다. 특정 질문에 대해 답변을 회피하거나 중국 정부를 대변하는 식의 편향된 답변이 나오기 때문이다. 딥시크의 AI 모델은 중국 정부의 사상 검열을 거쳤을 가능성이 높다고 전문가들은 추측한다. 천안문 사태처럼 중국 공산당 입장에서 정치적으로 예민한 사건이나 시진핑 국가주석 등 지도자에 대한 질문에 대해 AI 모델이 답변을 회피하도록 설계됐을 것이라는 관측이다.

    다만 전문가들은 현 단계에서 어느 정도 편향성은 인정해야 한다고 입을 모은다. 이 같은 문제는 중국뿐 아니라 어느 나라에서도 나올 수 있는 문제라는 얘기다.

    김용대 교수는 “생성형 AI는 어떤 언어 데이터를 주로 학습하느냐에 따라 편향이 생길 수밖에 없다”며 “예를 들어 네이버의 하이퍼클로바X도 홍범도 장군에 관한 질문을 던지면 자세한 답변을 내놓지 않는다”고 강조했다. 이어 “미국 빅테크의 AI에 폭탄 제조 기술을 물어봐도 마찬가지”라며 “이는 딥시크만의 문제가 아니라 AI의 정책적인 측면에서 드러나는 한계”라고 덧붙였다.

    딥시크의 절대적인 학습 데이터가 적다는 점도 고려할 필요가 있다. 특히 그동안 학습 데이터가 중국에서 쌓였던 탓에 중국 정보에 특화될 수밖에 없고, 어느 정도 편향이 나타나는 건 당연한 현상이라는 데 의견이 모인다. 이는 시간이 지나면 자연스럽게 극복될 것으로 전문가들은 내다본다.

    이번 논란을 계기로 기업 내부 시스템과 AI 모델을 분리하는 안전조치가 필요하다는 지적도 나온다. 신영웅 우송대 정보보안학과 교수는 “생성형 AI는 어느 나라에서 개발됐든 보안 위협에 노출될 수 있다. 중국뿐만 아니라 서방 국가에서 만든 AI 역시 보안 취약점이 있을 수 있는 만큼 사용자가 스스로 경각심을 가져야 한다”고 지적했다. 권헌영 고려대 정보보호대학원 교수는 “보안과 개인정보보호 문제에 대해 우리 정부가 딥시크 측에 한 조치는 적절했다고 판단된다”면서도 “자칫 한국만 패싱되는 결과를 초래하면 가성비 좋은 AI서비스를 못 쓰는 손해가 큰 만큼 중국 측과의 긴밀한 협의를 이어가는 게 필요하다”고 밝혔다.

    [김병수 기자]

    [본 기사는 매경LUXMEN 제174호 (2025년 3월) 기사입니다]

매일경제
맨위로