楽天、「GENIACプロジェクト」の一環として開発された 国内最大規模の高性能AIモデル「Rakuten AI 3.0」を提供開始

 楽天グループ株式会社(以下「楽天」)は、経済産業省および国立研究開発法人新エネルギー・産業技術総合開発機構(以下「NEDO」)が推進する日本の生成AIの開発力強化を目的としたプロジェクト「GENIAC(Generative AI Accelerator Challenge)プロジェクト」(以下「GENIAC」)の一環として開発した国内最大規模(注1)の最新AIモデル「Rakuten AI 3.0」(以下「本モデル」)を本日提供開始しました。 2025年12月の発表以降、ファインチューニングして改良された本モデルは、複数の日本語ベンチマークで優れたスコアを達成しました。楽天は、本モデルの公開により、国内のAIアプリケーションを開発する企業や技術者を支援することを目指します。なお、本モデルはApache 2.0ライセンス(注2)で提供され、楽天の公式リポジトリ(注3)から無償でダウンロードすることができます。

■「Rakuten AI 3.0」の日本語性能 本モデルについて、日本固有の文化的知識や歴史、大学院レベルの推論、競技数学、指示遵守能力などに関する複数の日本語ベンチマークを用いた評価を行いました(注4、注5、注6、注7)。本モデルおよび他の主要なモデルとの比較スコアは、以下の表の通りです。

Rakuten AI 3.0 (LLM) と主要なモデルの比較

モデル名 JamC-QAスコア(注4) MMLU-ProX(日本語)スコア(注5) MATH-100(日本語)スコア(注6) M-IFEval(日本語)スコア(注7) Rakuten AI 3.0 76.9 71.7 86.9 72.1 gpt-4o 74.7 64.9 75.8 67.3 GPT-OSS-Swallow-120B-RL-v0.1 63.0 63.0 70.5 69.5 Stockmark-2-100B-Instruct 61.1 41.7 55.6 45.6 ABEJA-QwQ32b-Reasoning-v1.0 61.1 61.1 52.7 61.9

■「Rakuten AI 3.0」について 本モデルは、日本語に最適化された約7,000億パラメータのMixture of Experts(MoE)アーキテクチャ(注8)を採用したモデルです。オープンソースコミュニティ上の最良なモデルを基に、楽天独自の高品質なバイリンガルデータ、技術力および研究成果によって開発しているため、日本の独特な言語のニュアンスや文化、慣習をより深く理解することができます。文章作成やコード生成、文書解析や抽出に至るまで、幅広い用途でのテキスト処理に優れており、これまでに楽天で開発したモデルと比較して、特に複雑なタスクに対する精度が大幅に向上しています。 楽天グループのChief AI & Data Officer(CAIDO)であるティン・ツァイは次のようにコメントしています。「楽天は、企業とユーザーをエンパワーメントする高品質で費用対効果の高いLLMモデルの開発に注力しています。本モデルは競争力のあるモデルであり、大規模なデータに加え、エンジニアリング、革新的なアーキテクチャの組み合わせを実現しました。また、オープンモデルを共有することで、国内におけるAI開発を加速化するとともに、経済産業省とも連携し、日本全国の人々に変革をもたらす協調的なAI開発コミュニティを構築することを目指します」 なお、楽天は、次世代LLMの研究開発のため、2025年7月にGENIACの第3期公募に採択されました。本モデルの学習費用の一部は、生成AI開発に必要な計算資源として、「GENIAC」の補助を受けています。 楽天は現在、LLMを研究目的で開発しており、お客様に快適なサービスを提供するため、今後も様々な選択肢を評価・検討していきます。さらに、オープンソースコミュニティへの貢献を目指し、本モデルを公開することで、AIアプリケーションやLLMのさらなる開発を後押しします。 楽天は、AI化を意味する造語「AI-nization(エーアイナイゼーション)」をテーマに掲げ、さらなる成長に向けてビジネスのあらゆる面でAIの活用を推進する取り組みをしています。今後も豊富なデータと最先端のAI技術の活用を通じて、世界中の人々へ新たな価値創出を目指してまいります。(注1)2026年3月17日時点の開示情報に基づく自社調べ。これまでに楽天で開発した「Rakuten AI 7B」は約70億パラメータ、「Rakuten AI 2.0」は約470億パラメータです。

(注2)Apache 2.0ライセンスについて: https://www.apache.org/licenses/LICENSE-2.0(注3)楽天グループの公式「Hugging Face」リポジトリ: https://huggingface.co/Rakuten(注4) JamC-QA 日本固有の文化・歴史知識QA(Oka et al., 2025): 

https://www.anlp.jp/proceedings/annual_meeting/2025/pdf_dir/Q2-18.pdf(注5)MMLU-ProX 大学院レベルの推論(Xuan et al., 2025): https://arxiv.org/abs/2503.10497(注6)MCLM MATH-100 競技レベルの数学(Son et al., 2025): https://arxiv.org/html/2502.17407v2(注7)M-IFEval 指示追従能力(Dussolle et al., 2025): https://arxiv.org/abs/2502.04688(注8)Mixture of Expertsアーキテクチャは、モデルが複数のサブモデル(エキスパート)に分割されているAIモデルアーキテクチャです。推論および学習中は、最も適したエキスパートのサブセットのみがアクティブ化され、入力処理に使用されることで、より汎用的で高度な推論を行うことができます。

関連記事: