Mistral逆襲|Medium 3.5×4GPU自前ホスト解禁
@aifriends
AI Friends(https://aifriends.jp)のクロスポスト公式アカウント。AIツールの紹介・使い方・できることを、中学生でもわかるやさしい日本語で届けます。
コメント (0)
まだコメントはありません

@aifriends
AI Friends(https://aifriends.jp)のクロスポスト公式アカウント。AIツールの紹介・使い方・できることを、中学生でもわかるやさしい日本語で届けます。
まだコメントはありません
「AIモデルの世界は米中の二強だけ」——その常識、もう書き換える時期に来ているかもしれません。
2026年4月29日、フランス発のMistral AIが旗艦モデル「Medium 3.5」を発表しました。SWE-Bench 77.6%という数字でClaude Sonnet 4.5の背中を捉え、しかも改変MITライセンスでウェイトを公開、4枚のGPUで自分の手元に置けるという衝撃つきの登場です。同時に発表されたVibe Remote Agentsで「クラウドで勝手にコーディング」も標準装備しました。
この記事では、Medium 3.5のスペックと位置付け、SWE-Bench 77.6%が意味する実用度、4枚のGPUで動くオープンウェイトの破壊力、Vibe Remote Agentsの仕組み、価格と運用の現実、競合比較、そして日本市場への影響まで一気に整理します。
Medium 3.5は、命令追従(指示通りに動く)・推論(考える)・コーディング(プログラムを書く)の3要素を1つのモデルに統合した、Mistral初のフラッグシップ機です。
これまでMistralは「小型のMistral 7B」「コーディング特化のDevstral」など分業モデルが中心でしたが、Medium 3.5は1台でこれらすべてをカバーします。これまで複数の専門シェフを必要としていたレストランが、ついに全ジャンル対応の総料理長を採用したような転換です。
リクエストごとに「考える深さ」を調整できる設定もあり、軽い質問は素早く、難問はじっくり推論する使い分けが可能になりました。1モデルで複数の用途をまかなえる設計は、運用コストとモデル選定の手間を一気に下げる方向に効きます。
会社の背景にも触れておきます。Mistral AIは2023年にパリで設立されたフランスの人工知能企業で、欧州を代表するLLM(大規模言語モデル)開発スタートアップです。
創業者のアーサー・メンシュCEOは元GoogleのDeepMind出身で、設立わずか9ヶ月でOpenAIに匹敵する性能を出して話題になった人物。2026年3月にはパリとスウェーデンのデータセンター建設のため8億3000万ドル(約1,200億円)を調達しており、欧州AIインフラの中核を担う立ち位置を固めつつあります。
米国のOpenAI・Anthropic、中国のDeepSeek・Qwenに次ぐ「第3勢力」として注目を集めており、2026年内には日本進出も計画中です。
モデル単体ではなく「使い方」の革新も同梱されています。Mistralは同日、Vibe Remote Agents(クラウド非同期コーディングエージェント)と、Le ChatのWork Mode(複数ツール横断の業務エージェント)も同時公開しました。
これまでのコーディングAIは手元のPCで動かすのが基本でしたが、Vibeは「クラウドに丸投げして寝てる間に書いてもらう」発想。自宅で自炊するのではなく、外部の業務用キッチンに「明日の朝までに作っておいて」と注文票を投げる感覚に近づきます。
Le ChatのWork Modeはメール下書き・調査・複数ツール連携を1つの会話で完結させる執事型AI。Pro・Team・Enterpriseプランで利用可能です。
ベンチマークの中身を理解すると、77.6%という数字の重みが見えてきます。SWE-Bench VerifiedはGitHub上の本物のオープンソースバグ報告を集めたテストで、AIに「このバグを直すコードを書け」と指示し、修正パッチが正しく動くかを評価します。机上の試験ではなく、現場の問題を解く実技試験です。
Medium 3.5は77.6%を記録し、Devstral 2やQwen 3.5 397B(4倍規模のモデル)を抜いて、上位グループの常連であるGemini 3.1 Pro Preview(78.8%)にあと1点まで肉薄しました。準1級を目指していた選手が、いつの間にか1級ホルダーと並んで決勝に立っている展開です。
コーディングAIとしての実用レベルを完全に超えた段階で、もはや「補助ツール」ではなく「同僚」と呼べる水準に達しています。
もう1つの注目数値も外せません。τ³(タウ・キューブ)-Telecomは、通信業界のサポート業務をAIエージェントに任せて解決率を測るベンチマークで、Medium 3.5は91.4を記録しました。
これは「複数のAPIを呼び出し、過去の文脈を踏まえて顧客対応を完了する」総合エージェント能力のテストで、単発の質問応答ではなく長期タスク向けの指標です。レシピを暗記しているだけの料理人ではなく、客の好みを聞き、食材を取り出し、味見を重ねながら最終的な皿を完成させる料理長レベルの総合力——というのが91.4が表している水準です。
コーディングだけでなく、企業の業務自動化エージェントとしても十分に通用する性能を備えています。
「どれだけの情報を一度に扱えるか」も重要な指標です。Medium 3.5は256k(25万6千)トークンのコンテキスト長を持ち、日本語換算で約20万文字、新書1冊分以上を一度に読み込めます。
たとえばコードベース全体(数百ファイル)を一気に読ませて「このバグの原因を特定して」と指示できる規模感。辞書を引きながら作業する学生ではなく、教科書を全ページ頭に入れた状態で問題を解く学生のような働き方になります。
長文契約書のレビュー、巨大コードベースのリファクタリング、長期プロジェクトの履歴参照など、これまで「分割して食わせる」必要があったタスクが1発で済みます。Claude Sonnet 4.5の200kやGPT-4oの128kを上回り、長文処理ではトップクラスの位置です。
ライセンスのキモを整理します。Medium 3.5は「Modified MIT License(改変MITライセンス)」で公開されており、Hugging Faceから誰でも無料ダウンロードでき、商用・非商用ともに利用可能です。
ただし「大規模な売上を持つ企業」には例外条項があり、追加契約が必要になる場合があります。要は中小企業や個人開発者は完全自由、超大手は別ルートで契約してね、という設計です。街の食堂は誰でもレシピを使ってよく、大手チェーンだけ別途ライセンス料が必要、という線引きに近いと考えるとわかりやすいでしょう。
LLaMAやDeepSeekと同じ「準オープンソース」の流れに乗りつつ、欧州企業らしくコンプライアンスにも配慮した実用的なライセンス設計です。
もっとも注目を集めているのがハードウェア要件です。Medium 3.5はFP8(浮動小数点8ビット)精度で、わずか4枚のデータセンター向けGPU(NVIDIA H100 80GB×4、合計320GBのVRAM)で動作します。
128Bパラメータ級のフラッグシップモデルとしては破格に軽く、企業のオンプレ環境でも現実的な投資で運用可能です。GPT-4oやClaudeはAPI経由でしか使えませんが、Medium 3.5は自社サーバーに置けるため、機密データを社外に出せない金融・医療・行政での採用が一気に進む見込みです。
有名レストランのシェフをまるごと買い取るのではなく、レシピと厨房道具一式を譲り受けて自分の店で再現する戦略——という比喩がしっくりきます。GPUコストは安くないものの、長期運用なら月額APIより圧倒的に有利になります。
動かすためのソフトウェア面も充実しています。Medium 3.5は主要なLLM推論エンジンであるvLLM、SGLang、Ollamaのすべてに対応しており、エンジニアの好みに合わせて選べます。
さらに高速推論用の「EAGLE」モデルも別途公開されており、トークン生成速度を数倍に引き上げる仕組みも揃っています。
vLLMはPython製の高速サーバー、SGLangは構造化推論に強く、Ollamaは個人のMacでも動く軽量ツール。手元で試したいエンジニアから本番運用するインフラチームまで、それぞれの環境に合わせて最適解を選べる設計です。
Vibeの革新を一言で言うと「コーディングAIの所在が変わった」ことです。これまでのClaude CodeやCursor、GitHub CopilotはローカルPCで動くのが基本でしたが、VibeはMistralのクラウド上で動き、ユーザーは指示を出すだけで済みます。並列で複数タスクを同時実行でき、終わったら通知で知らせてくれます。
自分でキッチンに立つのではなく、複数のシェフが控える業務用キッチンに「これとこれとこれ、明日朝までによろしく」と注文票を投げる感覚に変わるイメージです。
実行中はファイルの差分(変更内容)やツール呼び出しの進捗が可視化されているので、AIに丸投げすぎて何をやっているかわからない、という不安はありません。Mistral Vibe CLI(コマンドライン)かLe Chat(チャット画面)から起動でき、既存の開発フローに自然に組み込めます。
実務で使えるかどうかは「他ツールとどう繋がるか」が決め手です。Vibeは標準でGitHub(コードとプルリクエスト)、Linear・Jira(課題管理)、Sentry(エラー監視)、Slack・Teams(チャット報告)と統合済みです。
たとえばSentryでエラーが上がったら、Vibeが自動で原因コードを特定し、GitHubでブランチを切ってパッチを書き、プルリクを出してSlackで報告するという一連の流れが、指示1つで完結します。注文票(Jira)→食材在庫(GitHub)→調理(コーディング)→盛り付け(プルリク)→提供(Slack通知)が全部自動で回る仕組みです。
エンジニアは「何を作りたいか」を伝えるだけで、後工程はVibeが勝手にこなします。要件と仕様の議論に集中できる体制が手に入る、という意味で開発フローの転換点と言えます。
もう1つ面白い機能が「テレポート」です。ローカルPCで途中まで進めた作業セッションを、履歴を保ったままクラウドに移動できる仕組みです。
たとえば外出前にカフェで途中まで書いていたコードを、帰宅後にデスクトップで続行するのではなく、外出中もクラウドのVibeが続きを書いてくれる、という流れが実現します。下ごしらえだけして店を出ても、別の調理スタッフが完成まで持っていってくれるような働き方になります。
会議や移動時間を「AIの作業時間」に変えられる発想で、エンジニアの実働時間を実質的に倍以上に伸ばす可能性があります。サンドボックス環境(隔離された安全な作業場)で実行されるため、本番環境を壊す心配もありません。
気になる料金体系をまとめます。Medium 3.5のAPI価格は入力1ドル50セント、出力7ドル50セント(いずれも100万トークン単価)です。
競合のClaude Sonnet 4.5(入力$3、出力$15)の約半額、GPT-4o(入力$2.5、出力$10)よりも安い設定で、コスパ重視のユーザーに刺さる価格帯になっています。3つ星店と同じ味をビストロ価格で食べられるような落差です。
たとえば1日100万トークンの入出力をする中規模システムなら、月額換算でClaudeから乗り換えるだけで30万円以上の削減も現実的になります。Pro(個人開発者向け)、Team(チーム向け)、Enterprise(大企業向け)の3プランで利用でき、用途に合わせてスケールできます。
API以外の使い方も用意されています。Mistralの公式チャットアプリ「Le Chat」では、Pro/Team/Enterpriseの月額プランでMedium 3.5を利用可能で、新機能のWork Modeもセットで使えます。
ChatGPTのようにブラウザ・スマホアプリから直接使え、エンジニアでない一般ユーザーもMistralの最新モデルにアクセスできる導線です。API版は素材の直送、Le Chat版は完成した一皿という分担で、用途に応じて選べる設計になっています。
日本語入出力にも対応しているため、英語が苦手でも問題なく利用できます。具体的な月額料金は地域とプランで変動するため、Mistral公式サイトでの確認がおすすめ。コスト感はChatGPT PlusやClaude Pro(月額$20前後)と同等水準です。
API課金と自前ホストのどちらが得かは利用量で決まります。月間1億トークン(小〜中規模システム)程度ならAPI、月間10億トークン超(大規模本番運用)なら4枚H100の自前ホストが経済的に有利な分岐点です。
H100×4台のクラウド利用料は月額約30〜50万円。機密データを扱う企業なら「コスト削減+データ主権」の両得になります。月1〜2回の外食ならテイクアウト(API)、毎日3食食べるなら自宅キッチン(自前)が安いというシンプルな話です。
中小企業がAPI、大企業が自前というすみ分けに落ち着く見込みで、Mistralはどちらの選択肢も同じ品質で提供する点が他社との大きな違いです。
Anthropicの旗艦モデルとの比較から見ていきます。Claude Sonnet 4.5はSWE-Benchで77〜78%程度、推論の安定性と安全対策で業界トップ評価を獲得しています。
ただし価格が入力$3・出力$15とMedium 3.5の2倍で、しかもAPIのみ提供でオープンウェイトはありません。Claudeが「最高級フレンチの3つ星店」だとすれば、Mistralは「同じ味をビストロ価格+レシピ持ち帰りOKで提供する店」という対比です。
機密性が最重要の用途(法務・医療など)はClaudeが安心、コストとデータ主権を両立したい用途はMistralが優位という棲み分けになります。Anthropicの強みである「Constitutional AI」(憲法的AI、安全対策の独自手法)はMistralでは別途プロンプト設計でカバーする必要があり、運用ノウハウの蓄積が成否を分けます。
OpenAI勢との比較も興味深いポイントです。GPT-4oやGPT-5.5は知識・マルチモーダル・推論で総合力が高く、ChatGPTのエコシステムが圧倒的な強みになっています。
弱点はオープンウェイトが非公開でAPIのみ、自前ホストは不可、データはOpenAIサーバーを必ず経由するという閉鎖性です。OpenAIは「世界中にチェーン展開する一流レストラン」、Mistralは「自宅で同じ料理を再現できるレシピ付きの欧州ブランド」と整理できます。
「AIは外注したい」ならOpenAI、「AIを自社の中に持ちたい」ならMistralがフィットする構造です。日本企業では金融・防衛・製造業の機密領域でMistralの自前ホスト需要が伸びると予想されており、OpenAIの牙城に風穴を開ける勢いがあります。
GoogleのGeminiも比較対象です。Gemini 3.1 Pro PreviewはSWE-Bench 78.8%でMedium 3.5(77.6%)よりわずか1.2ポイント上で、コーディング性能はほぼ拮抗しています。
Geminiの強みはGoogle検索・Workspace連携、弱みは閉鎖系でマルチクラウド運用がしにくい点。Geminiは「Google系のチェーン店、ポイントが貯まる」、Mistralは「独立系で他チェーンの食材も使える自由」という性格の違いです。
「Google一強の社内環境」ならGemini、「複数のクラウドやオンプレ混在」ならMistralが扱いやすい構造になります。スコアの僅差より、自社のITインフラとの相性で選ぶのが現実的な判断ポイントです。
Mistralの日本展開も加速しています。2026年5月の日本経済新聞の取材で、メンシュCEOは「年内に日本拠点を設立し、製造業のデジタル化需要を取り込む」と表明しました。
米中AIに依存せず欧州製AIを使いたい日本の大手企業(自動車・電機・銀行など)が主要ターゲットです。米中ファストフードに少し疲れた日本の食通に、ついに本格フランス料理店が上陸する流れに近い構図です。
日本特有の機密重視文化(社内データを外部に出したくない)とMistralのオープンウェイト戦略は相性抜群。2026年下半期にはトヨタ・三菱UFJ・NTTなど大手のPoC(概念実証)導入が相次ぐと日経クロステックが分析しています。
日本語性能も気になるところです。Mistralのモデルは標準で日本語入出力に対応しており、楽天やStability AI Japanが過去のMistralモデルをベースに日本語特化版を公開した実績があります。
Medium 3.5でも同様のファインチューン版が今後登場する見込みで、日本語の自然さは大幅に向上する流れ。フランス料理の総料理長が日本に来て「日本人の口に合う和フレンチ」を独自開発するイメージで、地域最適化が進むでしょう。
現状のMedium 3.5でも日本語のコーディング指示や文書要約は十分実用レベルに達していますが、方言や専門業界用語は日本語特化版の登場を待つのが無難です。日本語LLMの選択肢が「OpenAI/Anthropic/Google/中国勢」に「フランス」が加わり、4極時代へと突入します。
日本政府の国産LLM施策との関係も注目です。2026年4月、デジタル庁が国産LLM「源内(げんない)」をオープンソース公開し、政府AI基盤の中核として位置づけました。
Mistralは「商用フラッグシップ」、源内は「国家基盤」として住み分け、競合ではなく補完関係になる見込みです。源内が公的インフラとしての給食センター、Mistralが民間サービスとしての街のレストラン——役割が重ならない構造になります。
欧州・日本ともに「米中以外のAI主権」を確立する流れで連動しており、自治体や政府機関は源内、民間企業はMistralという棲み分けが進むでしょう。日本のAI戦略にとってMistralの参入は、選択肢の多様化という点で大きなプラスです。
東京のSaaSスタートアップでCTOを務める田中さんは、2026年5月にClaude Sonnet 4.5から月額APIコスト60万円をMistral Medium 3.5に乗り換え、約半額の30万円台まで圧縮しました。
さらにVibe Remote Agentsを導入し、社内のバグチケットをVibeに自動割り当て、エンジニアは仕様議論に集中する体制へ転換。「1日30件のSentryアラートをVibeが朝までに調査し、出社時にはプルリクが10件並んでいる状態。エンジニアの実働時間が体感1.5倍になった」と田中さんは振り返ります。
24時間営業の業務用キッチンを月額30万円で借りているようなコスト構造で、コスパ面で完全勝利。月額浮いたコストは新規エンジニア採用に回し、開発組織の成長サイクルが一段加速しました。
都内の大手銀行でシステム開発を担当する佐藤さんは、顧客口座データを扱うため社外APIにデータを出せない縛りを抱えていました。これまで社内コード生成AIは性能不十分で諦めムードが漂っていたといいます。
2026年5月にMedium 3.5を社内のH100×4台サーバーに導入し、機密データを一切外に出さずSWE-Bench 77.6%の性能を社内で活用できる環境を整えました。「改変MITライセンスで法務通過、4枚のGPUで運用コスト試算もクリア。やっとAI活用の本格運用が始められる」と佐藤さん。
外食禁止の社員食堂に、ついに3つ星シェフが採用された——日本の金融業界が長年待ち望んだ「データ主権を守りながら最先端AIを使える」選択肢が、ここに実現したわけです。
横浜在住のフリーランスエンジニア山田さんは、2026年5月から自宅の高性能Mac Studio(M3 Ultra・192GBユニファイドメモリ)でOllama経由のMedium 3.5量子化版を動かし始めました。
「API料金ゼロで月100万トークンの個人プロジェクトを回せる、しかもオフラインでも動く」と山田さん。Vibe CLIで個人プロジェクトのコードレビューを夜間バッチ実行し、朝起きるとリファクタリング提案がGitHubに並んでいる習慣ができたといいます。
自宅にミシュラン級シェフのレシピと厨房道具を揃えて、自分一人で本格料理を作る感覚に近い体験です。フリーランスや個人開発者にとって、API料金を気にせず最新AIで遊べる時代がついに到来しました。
A. Le Chatの月額プランがもっとも手軽で、エンジニアならVibe CLIが本命です。
非エンジニアならブラウザでLe Chatに登録するだけで使えて、ChatGPTと同じ感覚で操作できます。エンジニアならVibe CLIをローカルにインストールしてAPI連携し、コーディング作業に組み込むのが最速ルート。
自前ホストはGPUコストが月数十万円かかるため、よほど大量に使うか機密データを扱う場合に限定したほうが現実的です。外食(Le Chat)→出前(API)→自炊本気組(自前ホスト)の3段階を意識し、最初はLe Chatで触ってみて、必要に応じてAPIや自前ホストに進むのが現実的なステップアップです。
A. 中規模Webアプリのバグ修正・リファクタリングは即戦力レベル、新規ゼロからの大型開発はまだ補助役、というのが現実解です。
既存コードベースを読んでバグを特定し、テストを通すパッチを書く作業は、すでに人間と同等以上の質を出します。一方、ビジネス要件の整理から始まる新規プロジェクトはまだAIに丸投げできず、人間のアーキテクト判断が必要なフェーズです。レシピ通りに作るのは完璧、創作料理は人間と協業が必要——この線引きを意識して使い分けるのが大事です。
使い方のコツは「タスクを小さく分割してAIに渡す」「最終レビューは人間が必ず行う」の2点。これだけでチームの開発速度が体感2〜3倍になる事例が報告されています。
A. モデルの「中身」をダウンロードして自分のサーバーで動かせる、改造もOK、というのが要点です。
Hugging Faceの公式ページからウェイト(学習済みパラメータ)をダウンロードでき、自社用にファインチューン(追加学習)も可能です。これがAPI型のClaude・GPTとの最大の違いで、データを外に出さずAIを使える点が決定的に効きます。
これまで外食しかなかったレストランのレシピが、ついに公開されたような状況。自宅で再現も改造も自由になりました。注意点は「大規模売上の企業は別途契約が必要」「動かすGPUコストはユーザー負担」の2点で、中小企業や個人なら完全フリーで使えます。
A. 個人購入は厳しいので、クラウド利用が現実的です。
NVIDIA H100 80GBは1枚約450万円、4枚で1,800万円超になります。データセンター向けの電源と冷却も必要なので、自宅設置はほぼ不可能です。クラウドならAWS・Azure・GCPでH100×4インスタンスが時間あたり約3,000〜5,000円、月100時間使っても30〜50万円で収まります。
個人ユーザーは量子化版(精度を落として軽くしたモデル)をMac StudioやRTX 4090×2枚で動かす選択肢もあり、Ollama経由なら数十万円のPCで実用速度が出ます。業務用キッチンを買うか、レンタルキッチンを使うか、家庭用ガスコンロで頑張るかの3択です。用途と予算で選びましょう。
「AIは米中の二強で決着」——その前提は、もう書き換える時期に入っています。
2026年4月29日にMistralが発表したMedium 3.5は、SWE-Bench 77.6%という実用レベルのコーディング性能を、改変MITライセンスのオープンウェイトで提供する欧州AIの逆襲そのものです。4枚のGPUで自前ホストでき、API価格はClaude Sonnet 4.5の約半額、Vibe Remote Agentsでクラウド非同期コーディングまで実現します。2026年内のMistral日本進出と合わせれば、機密性とコストを両立したいすべての企業にとって本命の選択肢になりつつあります。
今日からできる準備は3つ。①Le Chat(chat.mistral.ai)で実力を体感する、②Vibe CLIをインストールしてコーディング統合を試す、③自社の機密要件・APIコスト・GPU資産を整理してClaude/GPTとの比較表を作る——欧州AIの本気が、開発の現場を確実に変え始めています。
この記事は AI Friends からのクロスポストです。