- DeepSeek・Llama・GPTをベースに進化的学習技術を適用した3モデル構成「Namazuシリーズ」のα版を公開
- 日本語での回答品質向上とバイアス低減を設計目標に据え、約1000人のテスターのフィードバックをもとに開発した
- Namazuシリーズを活用したWebチャット「Sakana Chat」も同日公開、現在は無料で利用できる
Namazuシリーズ3モデルの概要
Sakana AIは2026年3月24日、日本語対応を強化した大規模言語モデル(Large Language Model、LLM)シリーズ「Namazu」のα版を発表した。今回公開されたのはNamazu-DeepSeek-V3.1-Terminus、Llama-3.1-Namazu-405B、Namazu-gpt-oss-120Bの3モデルだ。それぞれDeepSeek V3.1、MetaのLlama 3.1(405Bパラメータ)、GPTベースのオープンソースモデル(120Bパラメータ)を基盤としており、同社の独自技術を適用することで日本語向けに特化した性能を持たせている。
モデル名「Namazu(鯰)」は日本語で「ナマズ」を意味する。Sakana AIは2023年に設立された東京拠点のAIスタートアップで、GoogleのAI研究部門Google Brainのディレクターを務めたDavid Ha氏と、Transformerの原著論文("Attention Is All You Need")共著者の1人であるLlion Jones氏らが創設した。自然界の進化プロセスを模したアルゴリズムを機械学習に応用する「進化的学習技術(Evolutionary Learning)」の開発で知られており、複数のモデルの特性を組み合わせて新たな能力を引き出す手法を研究してきた。今回のNamazuシリーズにもこの技術が組み込まれており、日本語特有の文脈理解や表現力の向上を図っている。
バイアス低減と日本語品質の強化
Namazuシリーズの主な特徴は、日本語における回答品質の向上とバイアスの是正だ。Sakana AIによれば、ベースモデルと比較して日本語での回答品質と信頼性が向上しており、推論効率やコンテンツ理解においても改善が見られるという。現時点ではα版としての公開段階であり、今後のフィードバックをもとにさらなる改善が計画されている。
AIモデルがユーザーの期待に沿う回答を優先して事実を歪める傾向は、スタンフォード大学やCMUの研究でも問題視されており、モデル設計上の課題として広く認識されている。Namazuシリーズはこうしたバイアスの低減を開発目標の一つとして掲げており、特定の立場や感情に偏らない中立的な回答品質の実現を目指している。日本語特有の敬語や文体の多様性にも対応できる汎用性を持たせることが開発の方針とされている。
Sakana Chatの概要と利用方法
Namazuシリーズの発表と同日、Webブラウザから利用できるチャットサービス「Sakana Chat」も公開された。開発にあたっては約1000人のテスターが参加し、フィードバックをもとに改良が加えられてきた。ユーザーの質問に対してNamazuモデルがリアルタイムで応答を生成・最適化して返答する仕組みを採用しており、現在は無料で利用できる。
Sakana AIはこれまでも進化的学習技術を活用した日本語対応の画像言語モデル「EvoVLM-JP」など複数のモデルを公開してきた。今回のNamazuシリーズは3つの異なるベースモデルに対して独自技術をそれぞれ適用する形での展開であり、利用者は目的や要件に応じてモデルを選択できる。海外の主要LLMが占める大規模言語モデル市場へ日本発のモデルとして参入する取り組みとなり、α版公開を通じて得られるフィードバックをもとに今後の改善が進む見通しだ。

