딥시크, 제미나이 3·gpt-5와 맞먹는 새 모델 2종 오픈 소스 공개 - ai타임스

중국 딥시크가 구글 '제미나이 3 프로’와 오픈AI ‘GPT-5’ 성능에 맞먹는 차세대 오픈소스 AI 모델 ‘V3.2’ 시리즈를 공개했다.

딥시크는 1일(현지시간) 새로운 추론 모델 ▲표준형 ‘딥시크-V3.2’ ▲초고성능 버전 '딥시크-V3.2-스페셜(Speciale)'을 공개했다. V3.2 시리즈의 모델 크기는 6850억 매개변수이며, 최대 컨텍스트 길이는 12만8000토큰에 달한다.

이를 “일상적 추론과 고난도 문제 해결을 모두 아우르는 차세대 오픈 소스 모델”이라고 소개했다.

특히 V3.2-스페셜은 국제적 수학·정보 올림피아드에서 인간 금메달 수준의 성과를 기록하며 주목받았다.

2025 국제수학올림피아드(IMO)에서는 42점 만점 중 35점을 획득하며 금메달을 수상했고, 국제정보올림피아드(IOI)에서는 600점 만점에 492점을 기록하며 전체 10위에 해당하는 금메달 성적을 거뒀다.

또 국제대학생프로그래밍대회(ICPC)에서는 12개의 문제 중 10개를 해결하며 2위에 올랐다.

‘AIME 2025’ 벤치마크에서도 스페셜 모델은 96.0%를 기록, 'GPT-5-하이(94.6%)'와 제미나이 3 프로(95.0%)를 모두 앞섰다.

표준형 V3.2도 AIME 93.1%, ‘HMMT’ 92.5%를 기록하며 미국의 최상위 모델과 견줄만한 성능을 보였다.

딥시크는 V3.2-스페셜에 자체 검증(Self-verification) 시스템을 도입, 수학 등 추론 능력을 강화했다고 밝혔다.

이 시스템은 증명 생성기(proof generator)와 검증기(verifier)로 구성되며, RL 기반 보상 모델을 통해 생성기의 답변을 평가하고 성능 향상을 유도한다. 생성기 성능이 강화되면 검증기의 계산을 확장해 검증이 어려운 새로운 데이터를 만들어 검증기를 개선하는 방식으로 운영된다.

이런 접근은 오픈AI의 '범용 검증기(Universal Verifier)'와 구글의 ‘병렬적 사고(parallel thinking)’ 기법과 유사하다. 앞서 지난달 27일 딥시크는 '딥시크매스-V2(DeepSeekMath-V2)'라는 수학 전문 모델이 IMO 금메달 성적을 달성했다고 밝혔는데, 여기에 사용한 방법과 동일하다.

이번 V3.2 시리즈의 기술적 핵심은 ‘DSA(Dedicated Sparse Attention)’ 구조다.

기존 모델은 입력 길이가 두배로 늘어나면 계산량이 네배로 증가했지만, DSA는 ‘번개 색인기(lightning indexer)’를 활용해 필요한 문맥만 선별, 계산량을 절반 수준으로 줄였다. 예를 들어, 12만8000토큰 처리 비용은 기존 2.40달러에서 0.70달러로 낮아졌다.

또 V3.2 시리즈는 ‘싱킹 인 툴-유즈(thinking in tool-use)’ 기능을 처음으로 도입했다. 다른 모델은 웹 검색, 코드 실행 등 외부 도구를 사용할 때 추론이 중단됐지만, 딥시크 모델은 도구 사용 중에도 사고 흐름을 유지하며 복잡한 문제를 연속적으로 해결할 수 있다.

이를 위해 1800개의 다양한 작업 환경과 8만5000개의 복잡한 지시 데이터를 포함한 대규모 합성 데이터 파이프라인을 구축했으며, 실제 웹 검색 API, 코드 실행 환경, 주피터 노트북 등을 활용했다. 딥시크는 이를 통해 모델이 학습하지 않은 새로운 환경이나 도구에도 빠르게 적응할 수 있다고 설명했다.

딥시크는 V3.2와 V3.2-스페셜을 허깅페이스에 오픈 소스로 공개했으며, MIT 라이선스에 따라 개발자와 기업이 자유롭게 모델을 다운로드하고 수정·배포할 수 있다.

성능이 비슷한데 가격도 저렴하고 오픈 소스로 공개까지 되어 있다니 사람들이 안 쓸 이유도 없을 것 같네요.
특히 개발자나 소규모 팀은 비용 부담 없이 최신 기술을 바로 써볼 수 있어서 더 매력적일 듯합니다.