大規模言語モデル(LLM)開発のスタートアップELYZAは6月26日、日本語の生成能力において米OpenAI(オープンAI)の「GPT-4」を上回る性能のLLMを開発したと発表した。国内での社会実装に向け、汎用LLMをベースに業界や企業に特化したLLMの開発に注力していくとした。
開発したのは、米Meta(メタ)のオープンモデル「Llama 3」をベースに日本語のデータで学習した700億パラメーターの「Llama-3-ELYZA-JP-70B」と、80億パラメーターの「Llama-3-ELYZA-JP-8B」。700億パラメーターのモデルは、日本語を対象とした指標で国内最高精度を達成し、GPT-4をはじめとする主要なグローバルモデルを上回る日本語性能を達成したという。両モデルは、APIとして順次提供開始を予定している。80億パラメーターのモデルは、商用利用できるかたちで公開する。
曽根岡侑也 CEO
開発したLLMを活用し、日本の知識に詳しい「日本知識LLM」の開発を進めており、それ以外にも特定要素に特化した開発を始めているとした。曽根岡侑也CEOは、開発したLLMの活用について「PCや自動車を含めたエッジデバイス、研究目的での利用などAIの社会実装を支援していく」と説明。LLMのチューニングには専門性が必要になることから、LLMを活用したい企業の支援をビジネスとしていきたいとした。
LLMと親和性が高い分野として、曽根岡CEOはコンタクトセンターを挙げた。7月2日には、三井住友カードがELYZAが提供する生成AIをコンタクトセンターの運用で利用を開始したことも発表。新たに開発した最新LLMもコンタクトセンター業務に特化した開発を進めていく方針だ。
(堀 茜)