딥시크 V4 공개...1.6조 파라미터 오픈 모델로 프런티어를 10분의 1 가격에
딥시크가 4월 24일 차세대 V4 시리즈 두 모델을 공개했다. V4-Pro는 1.6조 파라미터로 현재까지 공개된 오픈웨이트 중 최대 규모이며, V4-Flash는 284B로 경량 모델 시장의 가격 하한선을 다시 깼다. 두 모델 모두 100만 토큰 컨텍스트를 '기본 설계'로 탑재하고 FP8 연산량·KV 캐시를 V3.2 대비 10분의 1 수준으로 압축했다. MIT 라이선스로 공개됐다.

중국 AI 연구소 딥시크(DeepSeek)가 4월 24일, 작년 V3·R1로 실리콘밸리를 뒤흔든 지 정확히 1년 만에 차세대 V4 시리즈를 공개했다. 이번에 나온 것은 두 프리뷰 모델 — DeepSeek-V4-Pro와 DeepSeek-V4-Flash — 이며, 모두 허깅페이스에 MIT 라이선스로 개방됐다.
규모와 가격, 효율이 한꺼번에 움직였다. 이 조합이 이번 발표의 진짜 뉴스다.
규모: 오픈웨이트 최대 기록 경신
V4-Pro는 총 1.6조 파라미터(1.6T), 활성 49B의 MoE(Mixture of Experts) 구조다. 공개된 오픈 모델 중 이보다 큰 것은 없다.
| 모델 | 총 파라미터 | 활성 | 라이선스 |
|---|---|---|---|
| DeepSeek-V4-Pro | 1.6T | 49B | MIT |
| Kimi K2.6 | 1.1T | — | 오픈 |
| GLM-5.1 | 754B | — | 오픈 |
| DeepSeek V3.2 | 685B | — | MIT |
| DeepSeek-V4-Flash | 284B | 13B | MIT |
V4-Pro의 Hugging Face 파일 크기는 865GB, V4-Flash는 160GB. 소비자용 하드웨어에서 풀 모델 실행은 사실상 불가능하지만, 경량 양자화된 Flash는 128GB RAM 맥북 프로에서 돌릴 수 있을 것으로 시몬 윌리슨(Simon Willison) 같은 개발자들이 예측하고 있다.
진짜 뉴스는 가격이다
딥시크의 API 공식 가격표는 프런티어 모델 시장의 가격 지형을 새로 그린다.
| 모델 | 입력 ($/M) | 출력 ($/M) |
|---|---|---|
| DeepSeek V4 Flash | $0.14 | $0.28 |
| GPT-5.4 Nano | $0.20 | $1.25 |
| Gemini 3.1 Flash-Lite | $0.25 | $1.50 |
| Claude Haiku 4.5 | $1 | $5 |
| DeepSeek V4 Pro | $1.74 | $3.48 |
| Gemini 3.1 Pro | $2 | $12 |
| GPT-5.4 | $2.50 | $15 |
| Claude Sonnet 4.6 | $3 | $15 |
| Claude Opus 4.7 | $5 | $25 |
핵심은 출력 토큰이다. Claude Sonnet 4.6($15)과 비교하면 V4-Pro($3.48)는 약 4분의 1, Claude Opus 4.7($25) 대비로는 7분의 1 수준이다. Flash는 더 극적이다. GPT-5.4 Nano의 출력 단가 $1.25와 비교하면 V4-Flash는 $0.28로 4.5배 저렴하다.
어떻게 이 가격이 가능한가: 효율 수치
딥시크의 기술 논문이 가격 구조의 비밀을 설명한다. 100만 토큰 컨텍스트 기준으로, 이전 세대 V3.2와 비교한 효율 지표다.
- V4-Pro: FP8 연산 단일 토큰 FLOPs가 V3.2의 27%, KV 캐시 크기는 10%
- V4-Flash: FLOPs 10%, KV 캐시 7%
긴 컨텍스트에서 가장 비싼 자원이 KV 캐시 메모리임을 감안하면, 이 절감은 곧바로 GPU 비용 절감으로 이어진다. "부가 기능이 아닌 처음부터 100만 토큰 컨텍스트를 전제로 설계한 첫 오픈 모델 패밀리"라는 딥시크의 자체 평가는 과장이 아니다.
벤치마크: 프런티어 3~6개월 뒤, 단 오픈 모델 1위
딥시크는 논문에서 자체 포지셔닝을 담담히 밝힌다.
V4-Pro-Max는 추론 토큰을 확장해 GPT-5.2 및 Gemini-3.0-Pro를 표준 추론 벤치마크에서 앞선다. 다만 GPT-5.4와 Gemini-3.1-Pro에는 소폭 뒤지며, 이는 프런티어 SOTA 대비 약 3~6개월 격차로 해석될 수 있다.
실용적으로 해석하면:
- 수학·코딩: V4-Pro가 모든 경쟁 오픈 모델을 앞섰다. Kimi K2.6, Qwen, GLM 시리즈 위에 섰다.
- 세계 지식(World Knowledge): 오픈 모델 중 유일하게 Gemini 3.1-Pro에만 뒤진다. 즉, 클로즈드 최상위 두 곳 (구글·OpenAI)을 제외하면 사실상 1위.
- 종합: "3~6개월 뒤"는 큰 숫자가 아니다. 전 세대 V3 → V3.2 → V4 사이의 간격을 고려하면, 다음 업데이트에서 SOTA를 따라잡거나 추월할 궤적이다.
한국 AI 생태계에 주는 세 가지 신호
1. 오픈 모델 거버넌스 시대가 본격 열렸다
네이버 클로바X, LG 엑사원(EXAONE), 업스테이지 솔라, 카카오 KANANA 등 국산 LLM 개발사들이 지난 1년간 붙들고 있던 질문이 "오픈으로 갈 것인가, 클로즈드로 갈 것인가"였다. 딥시크 V4는 오픈 진영도 충분히 프런티어급 도달 가능함을 증명했다. 더 이상 "오픈이라 성능이 떨어진다"는 변명이 통하지 않는다.
2. 가격 설계의 표준이 깨졌다
국내 API 서비스 가격을 결정할 때 지금까지의 벤치마크는 OpenAI·Anthropic·Google이었다. 이제 V4-Flash의 $0.14/$0.28 선이 새 기준이다. 네이버 클로바X API(Standard 기준 입력 100만 토큰당 약 $0.50대), LG 엑사원 엔터프라이즈, 업스테이지 솔라 Pro API 모두 가격 재조정 압력을 받게 된다.
특히 한국 스타트업·중소기업의 AI 도입 계산이 크게 바뀐다. 지금까지 "Claude Sonnet 쓰려면 월 수천 달러"라는 심리적 장벽 앞에서 AI 기능 개발을 미루던 팀들에게 V4-Pro 품질을 4분의 1 가격에 쓸 수 있다는 건 의사결정 임계점을 넘기는 숫자다.
3. 지정학 리스크는 여전한 변수
딥시크는 중국 기업이다. 미 상무부의 반도체 수출 통제 정책, 한국의 개인정보 국외 이전 규정, 국가안보 관련 산업의 글로벌 AI 사용 금지 등 정책적 제약이 여전히 V4 채택의 가장 큰 리스크다. API 직접 호출 대신 Hugging Face에서 가중치를 받아 자체 GPU에서 돌리는 온프레미스 방식이라면 이 리스크는 줄지만, 이 경우 초기 인프라 투자(80GB×20개 H100급) 가 필요하다.
결론: "1년 주기"의 패턴이 굳어진다
2024년 말 V3, 2025년 초 R1, 2025년 말 V3.2, 2026년 4월 V4. 딥시크는 분기별~반기별 주기로 오픈 프런티어를 밀어올리는 엔진이 됐다. 경쟁사는 클로즈드 모델로 "안전하게" 한 걸음씩 전진하지만, 딥시크는 오픈 가중치를 내놓고 가격으로 시장을 찢는다.
프런티어를 3~6개월 뒤따라가면서, 가격은 프런티어의 10분의 1로 설정한다. 이 방정식이 유지되는 한, 세계 AI 시장의 가격과 개방성 지형은 딥시크의 리듬에 맞춰 움직일 가능성이 크다. 한국 AI 업계에도 오픈 가중치 전략을 진지하게 검토해야 할 시점이 다시 찾아왔다.
원문 출처
- https://api-docs.deepseek.com/news/news260424
- https://simonwillison.net/2026/Apr/24/deepseek-v4/
- https://www.cnn.com/2026/04/24/tech/chinas-ai-deepseek-v4-intl-hnk
- https://www.bloomberg.com/news/articles/2026-04-24/deepseek-unveils-newest-flagship-a-year-after-ai-breakthrough
- https://www.aljazeera.com/economy/2026/4/24/chinas-deepseek-unveils-latest-model-a-year-after-upending-global-tech
편집 안내 | 이 기사는 AI 기술을 활용하여 글로벌 뉴스 소스를 분석·종합한 후, AIB프레스 편집팀의 검수를 거쳐 발행되었습니다. 정확한 정보 전달을 위해 노력하고 있으며, 원문 출처를 함께 제공합니다.


