엔씨소프트가 오픈소스 모델 기반 튜닝 거대언어모델(LLM)인 '라마 바르코 LLM'을 26일 공개했다.
'라마 바르코 LLM'은 오픈소스 모델 '라마 3.1'에 엔씨의 자체 기술력을 더해 한국어 성능을 향상시킨 튜닝 모델이다. 소규모-고성능이 특징으로 한국어 LLM의 사고력을 특정하는 '로직코' 벤치마크에서 파라미터 100억 개 이하 동급 공개모델 중 1위의 성능을 기록했다.
광범위한 작업 호환성도 강점이다. '라마 바르코 LLM'은 ▲챗봇 ▲QA(품질보증) ▲자연어 생성 등 다양한 분야에서 활용이 가능하다. 특히 한국어 AI 서비스 지원을 위해 소규모-고성능의 LLM이 필요한 기업에게 최적의 솔루션을 제공할 수 있다.
국내 게임사 최초 자체 언어모델을 개발한 엔씨는 시장의 요구에 맞는 비용 효율적인 모델을 꾸준히 선보이고 있다. 지난 4월에는 다국어를 지원하는 향상된 성능의 '바르코 LLM 2.0'을 선보였으며, 이달 LLM 성능을 검증하는 평가모델 '바르코 저지 LLM'을 공개했다.
엔씨는 AI 생태계 발전과 자유로운 연구 지원을 위해 '라마 바르코 LLM'을 AI 플랫폼인 '허깅 페이스'에 배포하고 오픈소스로 제공한다. 앞으로도 자체적인 AI 기술력 검증과 연구 커뮤니티 소통을 위해 오픈소스 기반 모델을 지속 공개할 계획이다.
엔씨소프트, 라마 바르코 LLM 공개...동급 최고 성능 기록 - 1
엔씨소프트, 라마 바르코 LLM 공개...동급 최고 성능 기록 - 2