gen_ai
분석
16분 읽기

딥시크 V4 공개...1.6조 파라미터 오픈 모델로 프런티어를 10분의 1 가격에

딥시크가 4월 24일 차세대 V4 시리즈 두 모델을 공개했다. V4-Pro는 1.6조 파라미터로 현재까지 공개된 오픈웨이트 중 최대 규모이며, V4-Flash는 284B로 경량 모델 시장의 가격 하한선을 다시 깼다. 두 모델 모두 100만 토큰 컨텍스트를 '기본 설계'로 탑재하고 FP8 연산량·KV 캐시를 V3.2 대비 10분의 1 수준으로 압축했다. MIT 라이선스로 공개됐다.

AIB프레스 편집팀
2026.04.24
조회 10
딥시크 V4 공개...1.6조 파라미터 오픈 모델로 프런티어를 10분의 1 가격에

중국 AI 연구소 딥시크(DeepSeek)가 4월 24일, 작년 V3·R1로 실리콘밸리를 뒤흔든 지 정확히 1년 만에 차세대 V4 시리즈를 공개했다. 이번에 나온 것은 두 프리뷰 모델 — DeepSeek-V4-ProDeepSeek-V4-Flash — 이며, 모두 허깅페이스에 MIT 라이선스로 개방됐다.

규모와 가격, 효율이 한꺼번에 움직였다. 이 조합이 이번 발표의 진짜 뉴스다.

규모: 오픈웨이트 최대 기록 경신

V4-Pro는 총 1.6조 파라미터(1.6T), 활성 49B의 MoE(Mixture of Experts) 구조다. 공개된 오픈 모델 중 이보다 큰 것은 없다.

모델총 파라미터활성라이선스
DeepSeek-V4-Pro1.6T49BMIT
Kimi K2.61.1T오픈
GLM-5.1754B오픈
DeepSeek V3.2685BMIT
DeepSeek-V4-Flash284B13BMIT

V4-Pro의 Hugging Face 파일 크기는 865GB, V4-Flash는 160GB. 소비자용 하드웨어에서 풀 모델 실행은 사실상 불가능하지만, 경량 양자화된 Flash는 128GB RAM 맥북 프로에서 돌릴 수 있을 것으로 시몬 윌리슨(Simon Willison) 같은 개발자들이 예측하고 있다.

진짜 뉴스는 가격이다

딥시크의 API 공식 가격표는 프런티어 모델 시장의 가격 지형을 새로 그린다.

모델입력 ($/M)출력 ($/M)
DeepSeek V4 Flash$0.14$0.28
GPT-5.4 Nano$0.20$1.25
Gemini 3.1 Flash-Lite$0.25$1.50
Claude Haiku 4.5$1$5
DeepSeek V4 Pro$1.74$3.48
Gemini 3.1 Pro$2$12
GPT-5.4$2.50$15
Claude Sonnet 4.6$3$15
Claude Opus 4.7$5$25

핵심은 출력 토큰이다. Claude Sonnet 4.6($15)과 비교하면 V4-Pro($3.48)는 약 4분의 1, Claude Opus 4.7($25) 대비로는 7분의 1 수준이다. Flash는 더 극적이다. GPT-5.4 Nano의 출력 단가 $1.25와 비교하면 V4-Flash는 $0.28로 4.5배 저렴하다.

어떻게 이 가격이 가능한가: 효율 수치

딥시크의 기술 논문이 가격 구조의 비밀을 설명한다. 100만 토큰 컨텍스트 기준으로, 이전 세대 V3.2와 비교한 효율 지표다.

  • V4-Pro: FP8 연산 단일 토큰 FLOPs가 V3.2의 27%, KV 캐시 크기는 10%
  • V4-Flash: FLOPs 10%, KV 캐시 7%

긴 컨텍스트에서 가장 비싼 자원이 KV 캐시 메모리임을 감안하면, 이 절감은 곧바로 GPU 비용 절감으로 이어진다. "부가 기능이 아닌 처음부터 100만 토큰 컨텍스트를 전제로 설계한 첫 오픈 모델 패밀리"라는 딥시크의 자체 평가는 과장이 아니다.

벤치마크: 프런티어 3~6개월 뒤, 단 오픈 모델 1위

딥시크는 논문에서 자체 포지셔닝을 담담히 밝힌다.

V4-Pro-Max는 추론 토큰을 확장해 GPT-5.2 및 Gemini-3.0-Pro를 표준 추론 벤치마크에서 앞선다. 다만 GPT-5.4와 Gemini-3.1-Pro에는 소폭 뒤지며, 이는 프런티어 SOTA 대비 약 3~6개월 격차로 해석될 수 있다.

실용적으로 해석하면:

  • 수학·코딩: V4-Pro가 모든 경쟁 오픈 모델을 앞섰다. Kimi K2.6, Qwen, GLM 시리즈 위에 섰다.
  • 세계 지식(World Knowledge): 오픈 모델 중 유일하게 Gemini 3.1-Pro에만 뒤진다. 즉, 클로즈드 최상위 두 곳 (구글·OpenAI)을 제외하면 사실상 1위.
  • 종합: "3~6개월 뒤"는 큰 숫자가 아니다. 전 세대 V3 → V3.2 → V4 사이의 간격을 고려하면, 다음 업데이트에서 SOTA를 따라잡거나 추월할 궤적이다.

한국 AI 생태계에 주는 세 가지 신호

1. 오픈 모델 거버넌스 시대가 본격 열렸다

네이버 클로바X, LG 엑사원(EXAONE), 업스테이지 솔라, 카카오 KANANA 등 국산 LLM 개발사들이 지난 1년간 붙들고 있던 질문이 "오픈으로 갈 것인가, 클로즈드로 갈 것인가"였다. 딥시크 V4는 오픈 진영도 충분히 프런티어급 도달 가능함을 증명했다. 더 이상 "오픈이라 성능이 떨어진다"는 변명이 통하지 않는다.

2. 가격 설계의 표준이 깨졌다

국내 API 서비스 가격을 결정할 때 지금까지의 벤치마크는 OpenAI·Anthropic·Google이었다. 이제 V4-Flash의 $0.14/$0.28 선이 새 기준이다. 네이버 클로바X API(Standard 기준 입력 100만 토큰당 약 $0.50대), LG 엑사원 엔터프라이즈, 업스테이지 솔라 Pro API 모두 가격 재조정 압력을 받게 된다.

특히 한국 스타트업·중소기업의 AI 도입 계산이 크게 바뀐다. 지금까지 "Claude Sonnet 쓰려면 월 수천 달러"라는 심리적 장벽 앞에서 AI 기능 개발을 미루던 팀들에게 V4-Pro 품질을 4분의 1 가격에 쓸 수 있다는 건 의사결정 임계점을 넘기는 숫자다.

3. 지정학 리스크는 여전한 변수

딥시크는 중국 기업이다. 미 상무부의 반도체 수출 통제 정책, 한국의 개인정보 국외 이전 규정, 국가안보 관련 산업의 글로벌 AI 사용 금지 등 정책적 제약이 여전히 V4 채택의 가장 큰 리스크다. API 직접 호출 대신 Hugging Face에서 가중치를 받아 자체 GPU에서 돌리는 온프레미스 방식이라면 이 리스크는 줄지만, 이 경우 초기 인프라 투자(80GB×20개 H100급) 가 필요하다.

결론: "1년 주기"의 패턴이 굳어진다

2024년 말 V3, 2025년 초 R1, 2025년 말 V3.2, 2026년 4월 V4. 딥시크는 분기별~반기별 주기로 오픈 프런티어를 밀어올리는 엔진이 됐다. 경쟁사는 클로즈드 모델로 "안전하게" 한 걸음씩 전진하지만, 딥시크는 오픈 가중치를 내놓고 가격으로 시장을 찢는다.

프런티어를 3~6개월 뒤따라가면서, 가격은 프런티어의 10분의 1로 설정한다. 이 방정식이 유지되는 한, 세계 AI 시장의 가격과 개방성 지형은 딥시크의 리듬에 맞춰 움직일 가능성이 크다. 한국 AI 업계에도 오픈 가중치 전략을 진지하게 검토해야 할 시점이 다시 찾아왔다.

편집 안내 | 이 기사는 AI 기술을 활용하여 글로벌 뉴스 소스를 분석·종합한 후, AIB프레스 편집팀의 검수를 거쳐 발행되었습니다. 정확한 정보 전달을 위해 노력하고 있으며, 원문 출처를 함께 제공합니다.

중국 AI
DeepSeek
딥시크
V4
오픈웨이트
MoE
LLM 가격

관련 기사