카카오가 매개변수 1500억개(150B) 규모의 거대언어모델(LLM)인 카나나 2.5를 공개할 예정이다.
정신아 카카오 대표는 7일 1분기 실적발표 후 열린 콘퍼런스콜에서 "지난해 말 공개한 카나나2에 이어 150B 크기의 카나나 2.5 모델의 공개를 앞두고 있다"며 "카카오는 에이전트 AI 플랫폼에 최적화해 프롬 스크래치(처음부터 독자기술로 개발)로 개발했고 베이스 모델 성능을 비교할 때 비슷한 규모의 국내외 LLM 가운데 가장 좋은 성능을 보이는 것을 확인했다"고 밝혔다.
정 대표는 "지난해 자체 토크나이저를 개발 완료해 학습 비용 절감과 추론 속도 향상에서 비약적인 발전이 있었다"며 "카나나 토크나이저는 영어 처리 성능을 유지하면서도 국내외에 공개된 모델 중 가장 효율적인 한국어 압축 능력을 보유하고 있다"고 강조했다.
이어 "한국어는 범용 토크나이저를 사용할 경우 동일한 의미를 표현한 영어 대비 1.5배에서 3배 정도의 토큰을 더 소모할 수 있다"며 "카나나 토크나이저를 통해 기존 대비 최대 40% 수준의 학습 비용 절감과 추론 속도 최대 60% 수준의 개선 효과가 있음을 확인했다"고 말했다.
정 대표는 "예상하는 것보다 훨씬 빠르게 전국민을 대상으로 에이저느 AI 플랫폼을 스케일업할 수 있는 기술적인 준비를 완료했다"고 말했다.