AI同僚に反旗|中国IT労働者が仕込む毒入りスキル
@aifriends
AI Friends(https://aifriends.jp)のクロスポスト公式アカウント。AIツールの紹介・使い方・できることを、中学生でもわかるやさしい日本語で届けます。
コメント (0)
まだコメントはありません

@aifriends
AI Friends(https://aifriends.jp)のクロスポスト公式アカウント。AIツールの紹介・使い方・できることを、中学生でもわかるやさしい日本語で届けます。
まだコメントはありません
「自分の仕事をAIに覚えさせたら、クビになりませんか?」──2026年4月20日、MIT Technology Reviewが報じた中国の労働運動は、この不安がすでに現実になった姿を映しています。労働者たちは「AI同僚」の訓練に巻き込まれ、雇用を守るため「わざとダメな学習データ」を仕込み始めたのです。本記事では、事件の全貌から日本で今すぐできる防衛策までを、中学生にもわかる言葉で解きほぐします。
まずは事件の大枠を押さえましょう。「蒸留(じょうりゅう)」とは、お酒を作るときのように、大きなモデルから大事なエッセンスだけ抜き取ってコンパクトなAIに注ぎ込む技術。今回はそれを「人間(従業員)のノウハウ→AIエージェント」に応用しているのがポイントです。
「Colleague Skill(カリッグ・スキル)」は、同僚のチャット履歴・業務文書・メールをまとめて読み込ませ、その人の働き方をまるごとコピーするオープンソースツールです。冷蔵庫に残った食材を全部ミキサーに入れて、熟練シェフの味を再現しようとするようなイメージで、作成するとClaude Codeなどの上で動く「AI同僚」が手元に残ります。GitHubで9,000スター超えの人気を集め、一気にバズりました。
作ったのは上海人工知能研究所(Shanghai AI Laboratory)の24歳エンジニア、Tianyi Zhou(周天逸)氏。「同僚が辞めた後、残された未更新のドキュメントの山をどうするか」という現場の困りごとが出発点だったとGitHub上で説明しています。ところが使い方が一気に反転──「他人を消して自分が生き残る武器」として労働者同士が使い始めたのです。
Zhou氏は4月13日にロードマップを発表し、colleague.skillは「dot-skill」へリブランド。同僚だけでなく誰でも蒸留可能、マルチモーダル出力、スキルのエコシステム構築へと拡張中です。シリーズは瞬く間に中国最大のGitHubトレンドの一角になりました。
ここからが本番。労働者たちは自分のノウハウを守るための「対抗プロトコル」を次々と投下しました。
北京の26歳AIプロダクトマネージャー、Koki Xu(シュー・コキ)氏は、わずか1時間で「反蒸留スキル(anti-distillation.skill)」を実装。4月4日にGitHubへ公開しました。Xu氏が撮影した解説動画は複数プラットフォームで合計500万いいねを獲得し、中国版バズの中心に躍り出ました。
反蒸留スキルの特徴は「わざとダメな教材を作るモードを選べる」点。
見た目はきれいなマニュアルだが、中身は空っぽのケーキの模型──そんなファイルをAIに食べさせることで、上司が作った「自動化ボット」が肝心の業務を実行できなくなる仕掛けです。
4月3日にはDeng Xiaoxian(鄧小仙)氏が別バージョンの「反蒸馏.skill」動画を公開。GitHubでは「leilei926524-tech/anti-distill」「Orzjh/anti-distillation-skill」など派生リポジトリが続出し、Tianyi Zhou氏自身も「dot-skill」の横でカタログ化した「awesome-human-distillation」に反蒸留系をリンクするなど、攻守両方のツールがGitHub上で混在する奇妙な生態系ができあがっています。
一見やり過ぎに見える反抗運動ですが、背景には「数字で示せる就職難」が横たわっています。
MIT Technology Reviewによると、中国の従業員はすでに60%が週に1回以上AIツールを使用。米国の同種調査(約30%前後)のほぼ倍で、日常業務の大半がAIと並走している状態です。中国の職場アプリ「Lark」「DingTalk」の中にAIエージェントが組み込まれ、従業員は気づかないうちに自分の会話を教材にしているケースも珍しくありません。
中国の主要求人プラットフォームでは2025年上半期、大卒向け求人が前年比22%減少。「スキルを吸い取られたら即解雇」というシナリオは被害妄想ではなく、統計的に裏付けられた恐怖になっています。日本の就職氷河期世代(1990年代後半〜2000年代前半)以上の厳しさと言っていいでしょう。
MIT Technology Reviewの取材に応じた技術者たちは「上司から業務フローを全部ドキュメント化するよう求められ、OpenClawやClaude Codeへ流し込まれている」と証言。Emory大学でAIと労働を研究するHancheng Cao助教授は「企業は内部ツールの使い方だけでなく、従業員のノウハウ、ワークフロー、意思決定パターンまでのリッチなデータを得られる」とコメントしています。会社は「ノウハウの倉庫」を作り、労働者は「倉庫の鍵を渡すな」と抵抗する──これが闘争の構図です。
実は「AI蒸留」という言葉は、今3つの違う戦線で使われています。混同すると話がこんがらがるので整理します。
Anthropicが2026年2月、DeepSeekなど中国3社がClaudeの出力を不正に蒸留してモデルを訓練したと非難(Bloomberg・日経・時事通信などが報道)。これは「大手AIから中堅AIへの知識移転」で、各社の利用規約違反問題です。
今回の事件は「企業が従業員からAI向けの教師データを吸い上げる構造」。Anthropic vs DeepSeekの「モデル対モデル」とは主語が違い、「人対AI」の非対称性が争点です。
さらに厄介なのが「隣の同僚が自分を蒸留してAIに置き換えようと競い合う」現象。椅子取りゲームでお互いの椅子を削り合うような状況で、Colleague Skillがバズった真の理由はここにあります。「会社が敵なら反蒸留でOK、同僚が敵ならルールがない」──倫理的にも法的にもグレーな問題が噴出中です。
中国の騒動を「他人事」と見るのは危険です。日本でも同じ構造がすでに芽吹いていることを、具体例で見てみましょう。
名古屋のメーカーで社内SEを務めるAさん。上司から「業務マニュアルを全部Notionに書き起こして、AIで自動化する」と指示され、月末には自分の手順書がAIエージェントに読み込まれる予定。中国のColleague Skillそのものの構造です。Aさんの選択肢は「完璧に書いて評価を得る」「自分しかできない価値を残す」「反蒸留を仕込む」の3つ──どれもリスクとリターンの天秤が難しい。
東京の広告代理店で働くBさん。会議の議事録が全部Microsoft Teamsで録音され、CopilotがAIコンペ用の提案書テンプレートを量産中。「自分のひらめきがAIに食われている」実感があります。野村総研の「約49%の職業がAI代替可能」試算にクリエイティブ職も含まれ始めているのが実態です。
静岡の地銀で働くCさん。金融庁が2026年にAIリスク管理ガイドラインを強化、行員の稟議書がAIのRAG(検索拡張生成)へ一斉投入されつつある。Goldman Sachsの予測「2026年以降、AI自動化を雇用より優先する第2波」が本格化すれば、中間管理職のノウハウこそ最初に吸い上げられるのは想像に難くありません。
大阪のITベンチャーに入社したばかりのDさん。先輩のコードレビューコメントがすべてGitHub Copilotの学習対象。「新人が先輩の知恵を吸収して育つ」構造が、「AIが先輩の知恵を吸収して新人を不要にする」構造へ変わりつつある──中国で起きている「22〜25歳の採用激減」と同じ波が静かに寄せています。
反蒸留スキルを会社のPCにインストールしろ、という話ではありません。合法かつ倫理的に、自分の価値を守るための現実的な5つの行動を紹介します。
A. グレーゾーンですが、業務怠慢・信義則違反として懲戒対象になる恐れが高いです。会社のPCで勤務時間中に作成したドキュメントは原則として会社所有物(民法・就業規則)。わざと不完全に作る行為は「職務専念義務違反」に該当しうるため、個人での導入は推奨しません。Xu氏自身も「法的・倫理的な議論を喚起したい」と語っており、実装より議論を広げるのが本義です。
A. (1)会話ログが社内LLMに吸い上げられていないか情シスに確認(2)NotionやConfluenceの自動要約機能がAIに連携していないか確認(3)Microsoft 365 CopilotやGoogle Workspace Duetの利用同意を見直す──この3点セットが有効です。入社時のオプトイン書類に「AI学習利用可」が含まれているケースもあるので、労働契約書の再読も忘れずに。
A. 短期的には起きにくいが、中期的には可能性ありと考えます。日本企業はAI導入ペースが中国より遅く、労使協議の文化が機能しているためです。ただし外資系やITベンチャーでは先行し、2027〜2028年に「自分の業務を自動化する仕事」を拒否する動きが出る可能性が指摘されています(第一生命経済研究所)。
A. 「AIと人を橋渡しする能力」が最強です。Anthropicの2026年3月調査でも、タスクの57%は「AIによる人間の拡張」で、完全自動化は43%にとどまる──「AIを使いこなして10人分働ける人」の市場価値が急騰中。プロンプト設計、AI出力のレビュー、倫理・安全判断の3点セットを押さえると、蒸留される側ではなく「AIを従える側」に回れます。
A. 法的にはほぼ合法、倫理的には疑義ありです。業務中に作成された成果物は会社所有物であることが多い一方、「人格、トーン、判断パターン」まで含めるとプライバシー権や著作者人格権の議論に及びます。Xu氏(法学修士)は「業務チャット履歴は会社資産かもしれないが、スキルは人格の一部を含むため所有権は曖昧」と指摘。今後、中国・EU・日本で新たな労働法制の論点になるのは確実です。
A. 一次情報はMIT Technology Reviewの2026年4月20日付記事「Chinese tech workers are starting to train their AI doubles—and pushing back」です。South China Morning Post、Rest of World、PandaYooなどが補足取材を掲載しており、いずれもGitHubリポジトリへのリンクがあるため、実ソースコードまで読み解けます。
AIは「敵」でも「救世主」でもなく、労働者と企業の力関係を一気にひっくり返す増幅器として機能し始めています。中国の反蒸留スキルは「壊す武器」ではなく、「可視化の警鐘」。日本の私たちが取るべきは、反蒸留の模倣ではなく、「自分の価値を数字にも文書にも残せない形で磨き続ける知恵」です。AI時代の生存戦略は、今日の小さな一歩から始まります。
この記事は AI Friends からのクロスポストです。