リコー 推論性能強化によりGPT-5と同等の高性能な日本語LLMを開発 金融業など業種・業務に特化
リコー 2025年10月10日発表
リコーは、リーズニング(推論)性能の追加搭載によって、同社が開発・提供するオンプレミスで導入可能な700億パラメータの日本語大規模言語モデル(LLM)の性能を向上させた。
「金融業務特化型LLM」では、有価証券報告書などの公開データを用いて金融業特有の専門用語や知識を追加学習させたうえで、多段推論能力(Chain-of-Thoughts:CoT)を付加することで、融資稟議業務などをはじめとした専門的な業務遂行能力を強化した。ベンチマーク評価の結果、米OpenAIが開発したGPT-5をはじめとする最先端の高性能なモデルと同等レベルの性能を確認した。今後は、製造業や医療といった他の業種・業務に適用可能な特化モデルの開発を進め、「使える・使いこなせるAI」を提供し、顧客が取り組むオフィス/現場のデジタルトランスフォーメーション(DX)を支援していく。

■評価結果
複雑な指示やタスクを含む代表的な日本語ベンチマーク「ELYZA-tasks-100」、日本語のマルチターンの対話能力を評価する「Japanese MT-Bench」、日本語金融ベンチマーク「japanese-lm-fin-harness」、および金融業向けに独自開発したベンチマークにより、性能を評価した。その結果、リコーが開発した「金融業務特化型LLM」は、日本語ベンチマークにおいて米OpenAI社のGPT-5と同等レベルの高いスコアを示した。また、金融ベンチマークではパラメータ数が同規模以上の最先端オープンソースモデルを上回るスコアを示した。
