x

이메일로 만나보는 스타트업 가이드

투자, 행사, 정부사업 등 스타트업 생태계 소식을 이메일로 편하게 받아보세요.

구글이 Gemma 3 모델을 기반으로 한 번역 모델군인 TranslateGemma를 발표했다. TranslateGemma에는 4B, 12B, 27B 파라미터 크기가 있으며 55개 언어 간 커뮤니케이션을 지원할 수 있다. 4B는 모바일 기기용, 12B는 소비자용 노트북용, 27B는 클라우드상 단일 H100 GPU 또는 TPU에서 실행 가능한 최상위 버전으로 각각 오픈 모델로 무료 공개되고 있다. 베이스 모델인 Gemma와 비교해 번역 능력이 강하며 여러 벤치마크에서 Gemma를 능가하는 성능을 발휘했다.

WMT24++라는 데이터셋으로 테스트한 결과 TranslateGemma 오류율은 Gemma를 대폭 밑돈다. 구글은 베이스 모델 절반 이하 파라미터로 고정밀 번역 품질을 실현할 수 있다며 이런 효율성의 도약으로 정확도를 희생하지 않으면서도 더 높은 처리량과 낮은 지연시간이 가능해진다고 강조했다.

 

TranslateGemma 성능은 2단계 미세조정 프로세스로 구축됐다. 하나는 지도 학습 미세조정으로 인간에 의한 번역 텍스트와 최첨단 Gemini 모델이 생성한 고품질 합성 번역이 풍부하게 혼재된 데이터셋을 사용해 베이스가 되는 Gemma 3 모델을 미세 조정했다고 한다. 다른 하나는 강화학습으로 번역 품질을 더 향상시키기 위해 MetricX-QE와 AutoMQM 같은 고도의 지표를 포함한 보상 모델을 활용해 맥락적으로 정확하고 자연스러운 번역을 생성하도록 모델을 유도했다고 밝혔다.

TranslateGemma는 Gemma 3 멀티모달 능력을 계승하고 있으며 이미지에서 문자를 읽어 번역하는 능력에도 긍정적인 영향을 미치는 것으로 확인됐다. 이는 TranslateGemma 훈련 과정에서 특정 멀티모달 미세조정을 하지 않고도 실현된 것이다.

TranslateGemma는 55개 언어 쌍으로 엄격하게 훈련·평가되고 있으며 스페인어, 프랑스어, 중국어, 힌디어 등 주요 언어 뿐 아니라 리소스가 적은 많은 언어에서도 신뢰성 높은 고품질 성능을 보장한다. 관련 내용은 이곳에서 확인할 수 있다.

뉴스 레터 구독하기

Related Posts

Next Post