x

이메일로 만나보는 스타트업 가이드

투자, 행사, 정부사업 등 스타트업 생태계 소식을 이메일로 편하게 받아보세요.

중국 AI 기업 딥시크(DeepSeek)가 대용량 입력에 최적화된 AI 모델 DeepSeek-V3.2-Exp를 발표했다. DeepSeek-V3.2-Exp는 동등한 벤치마크 점수를 기록하는 다른 모델에 비해 대량 입력이 주어졌을 때 계산 효율성이 훨씬 향상됐다.

DeepSeek-V3.2-Exp는 DeepSeek-V3.1 업데이트 버전인 DeepSeek-V3.1-Terminus를 기반으로 개발된 모델로 장문맥(long context)에서의 학습 및 추론을 최적화하는 슈퍼 어텐션 메커니즘인 DeepSeek Sparse Attention을 도입한 실험적 모델로 자리매김하고 있다. DeepSeek-V3.2-Exp는 DeepSeek Sparse Attention 효과를 검증하기 위해 학습 구성이 DeepSeek-V3.1-Terminus와 일치하도록 설정됐다. DeepSeek-V3.2-Exp와 DeepSeek-V3.1-Terminus의 벤치마크 점수를 보면 양쪽 점수가 거의 일치한다.

https://platform.twitter.com/widgets.js

반면 대용량 입력을 받았을 때의 계산 효율성이나 비용 효율성에는 큰 차이가 있다. DeepSeek-V3.2-Exp는 토큰 수 증가에 따른 비용 증가를 대폭 억제하고 있다. DeepSeek-V3.2-Exp 라이선스는 제한이 완화된 MIT 라이선스를 채택하고 있다.

https://platform.twitter.com/widgets.js

또 DeepSeek-V3.2-Exp는 API를 통한 이용도 가능하며 API 사용 요금은 캐시 없는 입력이 100만 토큰당 0.28달러, 캐시 있는 입력이 100만 토큰당 0.028달러, 출력이 100만 토큰당 0.42달러다. 관련 내용은 이곳에서 확인할 수 있다.

뉴스 레터 구독하기

Related Posts

No Content Available
Next Post