リコー 「Gemma 3 27B」ベースにオンプレミス導入に最適な日本語LLMを開発
リコー 2025年12月8日発表
リコーは、自社で開発・提供する日本語大規模言語モデル(LLM)シリーズの次世代モデルとして、Googleが提供するオープンモデル「Gemma 3 27B」をベースに、オンプレミス環境への導入に最適な高性能LLMを開発した。
本LLMは、リコー独自のモデルマージ技術を活用し、ベースモデルから大幅な性能向上を実現している。具体的には、独自開発を含む約1万5千件のインストラクションチューニングデータで追加学習したInstructモデルから抽出したChat Vectorなど複数のChat Vectorを開発し、「Gemma 3 27B」に対して独自技術でマージしている。
同規模パラメータ数のLLMとのベンチマーク評価の結果、米OpenAIのオープンウェイトモデル「gpt-oss-20b」をはじめとする最先端の高性能モデルと同等の性能を確認した。さらに、本モデルは、ユーザー体験を重視した非推論モデルならではの高い初期応答性を実現しながら、高い執筆能力も兼ね備えており、ビジネス用途での活用に適している。
また、モデルサイズは270億パラメータとコンパクトでありながら高性能を実現しており、PCサーバー等で構築でき、低コストでのプライベートLLM導入を可能にする。LLMは高い電力消費による環境負荷が課題となっているが、コンパクトで高性能な本LLMは省エネルギー・環境負荷低減にも寄与する。
本LLMは、顧客の要望に応じて個別提供が可能である。さらに、12月下旬からは、エフサステクノロジーズ株式会社が提供するオンプレミス環境向けの対話型生成AI基盤「Private AI Platform on PRIMERGY(Very Small モデル)」に、本LLMの量子化モデルと生成AI開発プラットフォーム「Dify(ディフィ)」をプリインストールし、LLM動作環境を構築したうえで、リコージャパンから提供する。本LLMとDifyを活用することで、顧客は自社の業種・業務に合わせた生成AIアプリケーションなどをノーコードで作成できる。さらに、リコージャパンが提供する「Dify支援サービス」による伴走支援も可能なため、社内にAIの専門人材がいない場合でも安心して生成AIの業務活用を開始できる。
今後は、推論性能や業種特化モデルの開発を進めるとともに、リコーが強みとするマルチモーダル性能と合わせて、リコーのLLMラインアップをさらに強化していく。

