![with a la.jpg](https://jinkorea.kr/data/tmp/2412/20241229113904_wchttmkm.jpg)
중국의 오픈소스 인공지능(AI) 스타트업 딥씨크(DeepSeek)가 최근 초대형 언어 모델 'V3'를 공개하며 업계의 주목을 받고 있다.
이 모델은 6,710억 개의 매개변수를 보유한 전문가 혼합(MoE) 구조로 텍스트 기반 작업, 코딩, 번역, 에세이 작성 등 다양한 과제를 처리하는 데 뛰어난 성능을 보인다.
딥씨크에 따르면, 'V3'는 14.8조 개의 고품질 텍스트 토큰으로 학습되었으며 이를 통해 고도의 추론 능력을 갖추었다.
또한 그래픽 처리 장치(GPU) 사용량을 최적화하여 550만 달러(한화 약 77억 원)의 비교적 낮은 비용으로 훈련을 완료했다.
자체 벤치마크 결과, 'V3'는 오픈AI의 'GPT-4'와 메타의 'LLaMA 3.1' 모델을 능가하는 성능을 보였다고 딥씨크는 주장한다.
특히 코딩 대회 플랫폼 '코드포스(Codeforces)'와 '에이더 폴리글롯(Aider Polyglot)' 테스트에서 높은 점수를 기록하며 기술력을 입증했다.
그러나 일부 외신과 사용자들이 진행한 테스트에서 'V3'는 자신을 오픈AI의 'GPT-4'로 착각하는 등의 환각(hallucination) 문제를 드러냈다.
모델이 "나는 챗GPT입니다"라고 답하거나 오픈AI의 애플리케이션 프로그래밍 인터페이스(API) 사용법을 설명하는 등 부정확한 정보를 제공한 사례가 보고되었다.
또한, 'V3'는 챗GPT와 유사한 농담을 반복하는 등 콘텐츠 혼란의 징후도 나타냈다. 이에 대해 딥씨크는 명확한 해명을 내놓지 않고 있어 의혹이 커지고 있다.
전문가들은 'V3'가 학습 데이터에 챗GPT의 출력을 포함했을 가능성을 지적하며 경쟁 모델의 출력을 무단으로 학습했을 경우 발생할 수 있는 문제라고 분석한다.
한편, 중국 내 규제 상황도 'V3'의 한계로 지적된다. 'V3'를 포함한 딥씨크의 서비스는 천안문 사태와 같은 민감한 정치적 질문에 응답하지 않는데 이는 중국의 인터넷 규제 정책에 부합하기 위해 설계된 결과로 보인다.
오픈AI의 샘 알트먼 대표는 최근 자신의 소셜 미디어 계정을 통해 "이미 작동 중인 것들을 복사하는 것은 쉽다"며 "새롭고 어려운 일을 하는 것이 진정한 도전"이라고 언급했다. 이는 딥씨크 모델 출시에 대한 우회적 비판으로 해석된다.
런던 킹스칼리지의 마이크 쿡 연구원은 "경쟁 모델 출력을 학습하는 것은 모델 품질 저하와 현실 왜곡을 초래할 수 있다"며 "이는 복사본의 복사본을 만드는 것과 같다"고 우려를 표명했다.
딥씨크의 'V3' 발표는 AI 업계에서 큰 관심을 받고 있으나 모델의 정확성과 윤리적 측면에서 해결해야 할 과제도 함께 부각되고 있다.