Qwen3.6-27Bの衝撃|RTX4090でClaude級AI
@aifriends
AI Friends(https://aifriends.jp)のクロスポスト公式アカウント。AIツールの紹介・使い方・できることを、中学生でもわかるやさしい日本語で届けます。
コメント (0)
まだコメントはありません

@aifriends
AI Friends(https://aifriends.jp)のクロスポスト公式アカウント。AIツールの紹介・使い方・できることを、中学生でもわかるやさしい日本語で届けます。
まだコメントはありません
「Claude Opusは使いたいけど月額課金が重い」「ChatGPTに会社のコードを渡すのは不安」——そんな悩みを一気に吹き飛ばす無料AIが登場しました。2026年4月22日に公開されたAlibabaの『Qwen3.6-27B』は、自宅のゲーミングPCで動くのに、一部ベンチマークでClaude Opus 4.5と並ぶ衝撃のオープンソースAI。何がどうすごいのか、やさしく解説します。
まずは『Qwen3.6-27Bって誰が作ったAI?』という基本から確認しましょう。
Alibaba(中国のAmazon的存在)のQwenチームが2026年4月22日、最新AI『Qwen3.6-27B』をHugging FaceとModelScopeで公開しました。Apache 2.0ライセンスという『商用利用もOK、改造してもOK、誰でも自由に使える』ゆるい条件付き。『コーヒー屋さんがレシピを無料公開したうえに改変もOK』と宣言したようなインパクトで、世界中のエンジニアが即日ダウンロードを始めました。
パラメータ数は270億(27B)。実はAlibabaは前バージョンの『Qwen3.5』で3970億(397B)のMoE型巨大モデルを出していました。『大型トラックより軽自動車のほうが速い』というあり得ない結果が、今回の27Bで起きたのです。小さいのに強い理由は後述する新アーキテクチャにありますが、『AIは大きさで決まる』という常識が揺らいだ歴史的瞬間と言われています。
性能を表す最重要指標がベンチマーク(AI同士の共通テスト)。Qwen3.6-27Bはコーディング分野で衝撃的なスコアを叩き出しました。
SWE-bench Verifiedは『現実のGitHub issueをAIが修正できるか』を測るテストで、Qwen3.6-27Bは77.2%を記録。Claude Opus 4.6の80.8%まであと3.6ポイントまで迫りました。Terminal-Bench 2.0(ターミナル操作の熟練度)では59.3%でClaude Opus 4.5と完全一致。『世界最強クラスの有料AIと互角になる無料AIが現れた』という事実が、業界に激震を走らせています。
新機能『Thinking Preservation(思考保持)』も大きな差別化ポイント。従来のAIは会話が長引くと『前に考えたことを忘れて最初から考え直す』ムダが起きていました。Qwen3.6-27Bは推論の過程を会話履歴に保存し、次のターンでもそのまま使える仕組み。『料理の下ごしらえを毎回やり直していたのが、冷蔵庫に保存して使い回せるようになった』イメージ。エージェント(自動で作業する AI)の精度が劇的に向上します。
『なぜ小さいのに強いのか』の答えが、ハイブリッドアテンションという新設計です。
Qwen3.6-27Bは合計64層のトランスフォーマーで構成されており、『3回のGated DeltaNet(線形アテンション)+1回の通常アテンション』の4層セットを16回繰り返す構造です。『3人の速いパート従業員に、1人のベテラン社員が監督として入る』のようなイメージ。速いけど賢さは落とさない——計算量を大幅に減らしつつ精度を維持する絶妙なバランスが生まれました。
1回の会話に詰め込める情報量の目安がコンテキストウィンドウ。Qwen3.6-27Bはネイティブで262,144トークン、YaRN技術で約1,010,000トークンまで拡張可能です。『文庫本10冊分をまとめて読ませて要約させる』レベル。巨大なGitリポジトリ全体をAIに丸ごと読ませてリファクタリングさせるなど、今までは夢物語だった使い方が現実になります。
オープンソースAIで最も重要なのが『自分のPCで動かせるか』。ここもQwen3.6-27Bは衝撃的です。
フルのBF16重みは55.6GBと大きいですが、Q4_K_M量子化(品質を保ったままサイズを圧縮する手法)なら約16.8GBまで減ります。RTX 4090(24GB VRAM搭載の民生用最上位GPU、2026年現在約30万円)一枚で快適に動作。Q5でも19.5GB、Q6で22.5GBなので、ゲーミングPCをそのまま流用できます。『去年まで数百万円の業務用サーバーが必要だったAIが、月の電気代3,000円で動く』時代の到来です。
企業向けにはQwen/Qwen3.6-27B-FP8というFP8(8ビット浮動小数点)版も同時公開。ブロックサイズ128の細粒度量子化で、SGLang(0.5.10以降)・vLLM(0.19.0以降)・KTransformers・Hugging Face Transformersなど主要推論ランタイムに対応。『小規模チームはRTX 4090、大企業はH100/H200で大量並列処理』と、規模に合わせて使い分けできる設計が好評です。
2026年4月時点の主要AIと比較してみましょう。
注目は『コスパ(コスト対性能)』。Claudeで月額数十万円かかる開発現場でも、Qwen3.6-27Bなら初期投資のGPU代だけで済みます。Qwen 3.6 PlusプレビューはClaude Opus 4.6の2〜3倍の出力速度という報告もあり、コーディング用途では十分な乗り換え候補になりました。
日本のエンジニア・スタートアップ・中小企業にとって、Qwen3.6-27Bはゲームチェンジャーになり得ます。
日本企業、特に金融・医療・製造業では『社内コードを社外AIに出すのはNG』という規則が一般的です。Claudeや ChatGPTを業務で使えない現場が多いのが実情。Qwen3.6-27Bは自社サーバーで完結するため、『社外秘のコードを自宅のRTX 4090に食わせて、リファクタリング提案をもらう』ことが合法かつ安全に可能。『AI活用で遅れていた業界が一気に追いつくインフラ』が整いました。
Qwenシリーズは従来から日本語性能が高いことで有名です。Qwen3.6-27Bも日本語プロンプト・日本語出力・日本語コードコメントに十分対応しています。『国産LLMを待たなくても、中国発の高品質モデルが無料で使える』状況で、ローカル LLM市場(自社ホスト型の言語モデル市場)の勢力図が急速に塗り替えられています。AIスタートアップにとってはAPI利用料が激減する恩恵が計り知れません。
Webアプリ受託開発で月収80万円の田村さん。今まではClaude ProとGitHub Copilotで月1万5千円を払っていました。Qwen3.6-27Bを自宅のRTX 4090で動かし、Cline(VS Code用AIエージェント)に接続して乗り換え。『3ヶ月で18万円の節約、しかもオフライン作業中の新幹線でも動く』と満足。クライアントの社外秘コードもローカル処理でOKという安心感が決定打でした。
従業員50名の機械部品メーカー情シス担当、高橋さん。『顧客データを外部AIに渡すな』という社長の厳命の中、Qwen3.6-27Bを社内サーバーに設置。請求書OCR→基幹システム自動入力→週次レポート自動生成までのエージェントを内製。『月2,000枚の伝票処理が3名→1名で回せるようになった』成果を社長に報告し、社内初の『AI担当役員(CAIO)』に昇格しました。
材料工学の木村教授。『未発表の実験データをChatGPTに入れて分析するのは研究倫理違反』と悩んでいました。Qwen3.6-27Bを研究室のワークステーションに導入し、実験データのパターン分析・英語論文のドラフト作成・査読コメントへの返信案まで内製化。『国際論文の投稿数が年3本→8本に増えた』と学会で話題に。『無料AIが基礎研究の生産性を変えた』象徴的事例です。
A. モデル自体はApache 2.0で完全無料。初期投資はRTX 4090(約30万円)または中古RTX 3090(約10万円)。24時間稼働でも月の電気代は約3,000〜5,000円です。『Claude Opusに月3万円払うより、半年で元が取れる計算』で、個人でも企業でも投資回収は速いです。中古3090ならさらに3ヶ月で回収できます。
A. オープンソースなので第三者が重みを検証可能で、Apache 2.0ライセンスで『どう使ってもよい』ため、モデルがデータを外部に送信することは技術的に不可能です(ローカル実行の場合)。『中国企業が作ったけど、動くのはあなたのPC内だけ』という構図。政府機関などでは導入審査が必要ですが、民間利用では世界的にすでに一般化しています。
A. CPUのみ+DDR5メモリ64GB以上ならQ4量子化版で動作可能ですが、応答速度は1トークン/秒程度と実用的ではありません。MacではApple Silicon(M3 Max以降、ユニファイドメモリ64GB推奨)でそれなりに動きます。『ストレス無く使うならNVIDIA GPU 24GB以上』が2026年4月時点の現実解。注意:CUDA 13.2にはバグがあり文字化けするため、CUDA 13.1または12.x系を使用してください。
A. Apache 2.0は『著作権表示と免責事項を含めればほぼ何でもOK』というゆるいライセンスです。自社サービスに組み込んで販売、SaaS提供、社内業務利用、すべて可能。再配布時は元のライセンス表記を残す必要がありますが、出力結果に対しては自由な権利を主張できるのが特徴。『AIが生成したコードを自社製品として販売しても問題なし』です。
A. すでにQwen 3.6 Plus Preview(1Mコンテキスト対応)がOpenRouterで先行公開中で、通常版もフラッグシップとしてサイズ違いが出る可能性が高いです。Qwenチームは2025年から『四半期ごとに大型アップデート』を続けており、2026年Q3には次世代の登場が予想されます。『買ったGPUが1年で陳腐化する懸念』はありますが、AI進化速度を考えれば標準的リスクです。
『AIは大きければ大きいほど強い』という2024年までの常識は、Qwen3.6-27Bによって完全に過去のものになりました。自宅のゲーミングPCで、世界最先端の商用AIと肩を並べるモデルを無料で動かせる時代——この変化を指をくわえて見ているか、今すぐ手を動かして自分の武器にするかで、1年後のエンジニアとしての価値が大きく変わります。『無料で最強のAIを味方につけた人が勝つ』2026年後半の到来、まずは30分のダウンロードから始めてみませんか。
この記事は AI Friends からのクロスポストです。