NTTは11月1日、独自の大規模言語モデル(LLM)「tsuzumi」を開発したと発表した。2024年3月から提供を開始する。パラメーターのサイズを抑えた6億の超軽量版と、70億の軽量版で提供するのが特徴。軽量化により、LLMの活用において課題となる学習コストを抑えつつ、高い性能を発揮できるという。島田明社長は「2027年までに1000億円以上の売り上げを目指す」と意欲を示した。
(大畑直悠)
島田明社長(左)と木下真吾執行役員
執行役員の木下真吾・研究企画部門長はtsuzumiの開発について、「なんでも知っている巨大なLLMではなく、専門知識を持った小さなLLMの集合知により課題を解決する」と話した。軽量で提供するメリットとしては、学習コストを抑制できると説明。米OpenAI(オープンエーアイ)の「GPT-3」と同規模のパラメーターサイズを持つLLMに対し、学習コストを超軽量版と軽量版で、それぞれ約300分の1、約25分の1に抑制できるとした。
推論コストの面でもメリットが出せるという。オンプレミス環境の場合、超軽量版はGPUを搭載しないPC1台、軽量版では70万円ほどのGPU1基を搭載したサーバーで稼働できるという。
性能面では日本語への強さに特徴を持つ。「GPT-4」を活用してLLMをテストするベンチマークの「Rakuda」で、tsuzumiは「GPT-3.5」と同等の結果を出しており、軽量ながら高いパフォーマンスを誇る。木下執行役員は「質が高い学習データを用いることで、パラメーターのサイズを抑えても高いパフォーマンスが可能だ。NTTは40年以上の自然言語処理研究の蓄積があり、その知見を生かした内製データを活用したり、新たに有益さや安全さに関するチューニングを施したりした」とアピールした。
また、文字情報の処理だけではなく、視覚情報への対応も可能。請求書や仕様書などの画像付きの文書を用いる業務にも適用できる。音声情報などにも対応させる予定で、例えばコールセンターや電話を用いたカウンセリングで、質問者の様子を考慮した応答を可能にするという。
ほかにも一つの基盤モデルを複数のアダプターで共有する仕組みにより、柔軟にカスタマイズできることも強み。複数のアダプターを業界や組織、業務ごとにそれぞれチューニングした上で、利用者や利用シーン、用途に応じて、アダプターを切り替えたり組み合わせたりして利用可能となっている。
現在はトライアルとして京都大学医学部附属病院や東京海上日動火災保険といったパートナーのほか、NTTグループ内で利用を開始しており、電子カルテの構造化データへの変換や医薬品開発の効率化、コンタクトセンターなどの業務効率化に取り組んでいるという。
販売形態としては、NTTコミュニケーションズやNTTデータといったグループ会社が販売を担い、顧客の要望に応じてインテグレーションして提供する。島田社長は「NTTグループではすでに複数のAIサービスを提供しており、そこにtsuzumiも加えることでパワーアップさせるところからスタートさせたい」と話した。