ビデオポッドキャストで、生成AIを中心としたニュース解説をしています。ぜひニュースのキャッチアップにお役立てください。口頭で解説しつつ、私の意見も混ぜて話しています。YouTubeでは画面を映しながらの解説となります。チャンネル登録よろしくお願いします。
Butterfly 🦋📩 未読メールのストレス、ニュースレターの消化不良から読者を解放するアプリ
Butterflyは、あなたの未読メールのストレス、ニュースレターの消化不良を解消し、必要なインサイトを提供するAIアシスタント搭載のメールクライアントです。ウェイトリストの登録を開始しました。詳細はこのニュースレターを御覧ください🦋📩
ChatGPTやClaudeといった大規模言語モデル(LLM)が話題になっていますが、これらのほとんどはTransformerという仕組みを使った自己回帰型モデルです。
文章を左から右へ一つずつ単語を生成するため、長い回答を作る際に時間がかかるという弱点がありました。
一方、Inception社が開発したMercury拡散言語モデルは、画像生成AIで使われている「拡散モデル」をテキスト生成に応用したものです。
ランダムなノイズから徐々に文章全体を浮かび上がらせるように生成するため、処理の並列化が可能になり、高速な応答とコスト削減を実現しています。
今回は、この「拡散モデル」という新しい技術について詳しく見ていきましょう。
Inception社の概要と背景
2024年夏頃に創業したとされ、最初は表立った活動をしていませんでした。2025年前半にMercuryを発表すると同時に、有名ベンチャーキャピタル「Mayfield Fund」からの出資が報じられています。
現在は複数の大手企業との契約を検討中で、今後さらに大きな投資を受ける可能性も高いようです。
創業チームの専門性と実績
Stefano Ermon教授(CEO):スタンフォード大学で拡散モデルの研究をリードしてきた著名な研究者です。画像生成の手法をテキストに応用するアイデアを考案し、Mercuryの核となる技術を開発しました。
Aditya Grover氏:「node2vec」という技術の共同開発者として知られ、FacebookやOpenAIでの研究経験を持ちます。現在はUCLA大学の助教授です。
Volodymyr Kuleshov氏:コーネル大学助教授で、起業経験もある研究者です。大規模データの分析や実用化に強みがあります。
拡散モデルによる文章の並列生成
従来のLLMは単語を一つずつ予測していく「自己回帰」という方法を使いますが、Mercuryではノイズから少しずつ文章を浮かび上がらせる方法(デノイジング)を使います。
全ての単語をまず大まかな形で生成した後、段階的に洗練していくため、計算を大幅に並列化できるのが大きな利点です。
この並列処理こそが高速応答の秘密で、Inception社によると標準的なGPU環境(NIVIDA H100)で1秒あたり1000単語以上の生成が可能だとのこと。従来モデルが数十〜数百単語/秒程度なので、処理速度が10倍以上も速い革新的な技術と言えます。
従来のAIモデルとの技術的差異
若干、モデルが古いですが、処理速度・コスパに優れているモデルと比較されています。
ChatGPT/GPT-4:対話や創造的な文章生成が得意ですが、一つずつ単語を生成するため長文になるほど遅くなります。大量のテキストを素早く出力したい場面では待ち時間が目立ちます。
ClaudeやGoogle Gemini:様々な作業で高い性能を発揮しますが、やはり速度に制約があります。企業内で大量の要約や質問応答を処理する場合、時間とコストがかさむことも。
Mercuryは拡散モデルでこの速度問題を解決しています。GPT-4のような最高性能モデルに直接挑むというより、「同じレベルの軽いAIよりもずっと速い」という特徴を打ち出しています。
学習データとモデルの特化領域
Mercuryは膨大なテキストデータ(数兆単語)で事前学習されています。特にプログラミングに特化した「Mercury Coder」というモデルは、大量のソースコードやプログラミング問題のデータを学習しています。
その結果、HumanEvalやMBPPなどの標準的なコード生成テストで高い成績を達成。コードの理解やバグ修正の提案も得意で、実際のソフトウェア開発で役立つレベルだと報告されています。
処理効率と費用対効果、Reasoning過程のハルシネーション防止効果による優位性
「高速化」だけでなく、処理コストの削減もMercuryの強みです。従来型のモデルよりもGPU資源を効率よく使えるため、導入企業はAI運用のコストを下げられます。
品質面ではGPT-4などの超大型モデルと比べると全体的に劣る可能性はありますが、中小規模モデル(GPT-4の小さいバージョンやClaudeの軽量版など)と同等以上の性能があるとの報告もあります。つまり「同じ品質なら、ずっと速くて安い」という価値を提供しているのです。
画像生成の拡散モデルの特徴として「途中で見つかった問題を後から修正しやすい」という利点があります。言語でも同様に、生成途中で矛盾や誤りに気づけば、後の段階で修正できる余地があるとされています。実際、Inception社は「Mercuryは論理的な一貫性が高く、嘘の情報(幻覚)も減らせる可能性がある」と主張しています。
ただし、拡散モデルの言語への応用はまだ研究段階で、従来型LLMほど実績が多くないため、今後も改良が続けられると思われます。
ビジネス実装の現状と展望
Inception社はまだ導入企業名を公表していませんが、Fortune 100(米国の大手企業)の複数社が試験的に導入を進めているとのこと。応答速度の向上やコスト削減を求める大企業が、従来型モデルからの切り替えをテストしているようです。
また、限定ユーザー向けに対話型チャットモデルも提供を始めており、コールセンターシステムや企業向けチャットボットとの連携を進めている様子です。
主要な活用事例と応用分野
ソフトウェア開発支援:「Mercury Coder」はコード補完や自動生成で高い性能を示しています。開発者がプログラムを書く際に、必要なコードを瞬時に提案することで生産性を大きく向上できます。
カスタマーサポート:リアルタイム性が重要なカスタマーサポートでは、高速応答が大きな利点になります。問い合わせ内容をすばやく理解し、回答を返すチャットボットとしての活用が期待できます。
文書の要約・作成:大量の文書を扱う金融・医療・マーケティング業界では、要約やレポート作成の効率化が急務です。Mercuryの高速性を活かせば、大量の文章処理もスピーディーに行えます。
小型機器への組み込み:処理が軽いため、将来的にはスマホやIoTデバイスへの組み込みも可能かもしれません。工場の現場でリアルタイム分析を行うといった使い方も考えられます。
具体的な用途が出てきてないので正直のところ、少しイメージはわかないですね。
競合技術に対する差別化要因
独自の技術アプローチ:多くの競合がTransformerベースである中、Mercuryは拡散モデルを採用することで高速化を実現し、コスト面での優位性をアピールできています。
専門家集団による開発:拡散モデル研究の第一人者であるErmon教授を中心とした研究者チームが開発をリードし、大学との連携も強いです。
柔軟な提供形態:APIだけでなく、自社サーバーへの導入や端末上での実行も可能です。クラウド利用に抵抗がある企業や機密データを扱う業界にも対応しやすいのが強みです。
Inception社は主に企業向けにサービスを展開しており、API利用料や導入ライセンス契約による収益化を図っているようです。
また、各企業の用途に合わせてMercuryをカスタマイズするサービスも提供予定で、コンサルティング収益も見込めます。価格は未公開ですが「従来の1/10のコスト」を掲げ、速さとコスパの良さを武器に市場を広げようとしているようです。
まとめ
Mercury拡散言語モデルは、画像生成で実績のある拡散技術をテキスト分野に応用することで、高速処理とコスト削減という従来にない強みを持ちました。コード生成をはじめ様々なビジネス用途で有望な結果を示し、大手企業との検証も進んでいることから、市場への影響は大きいと考えられます。
一方で、拡散モデルによるテキスト生成はまだ新しい技術領域であり、GPT-4のような超大型モデルと比べた総合的な能力には課題があるかもしれません。しかし「十分な品質をより安く速く提供する」という明確な価値提案は、多くの企業にとって魅力的です。
Inception社は拡散モデル研究の第一人者らが率いる技術企業として、発展性の高い新技術と有力な資金バックアップを持っています。今後の資金調達や対話型AIへの本格進出次第では、OpenAIやGoogleといった大手と競争できる可能性も秘めています。
「Mercuryが業界の常識を変える存在になるのか」—これからのAI業界の注目ポイントの一つと言えるでしょう。
今回は以上です。
では、また👋
Lawrence