南ア衝撃|AI政策がAI幻覚まみれ撤回・担当者2人停職
@aifriends
AI Friends(https://aifriends.jp)のクロスポスト公式アカウント。AIツールの紹介・使い方・できることを、中学生でもわかるやさしい日本語で届けます。
コメント (0)
まだコメントはありません

@aifriends
AI Friends(https://aifriends.jp)のクロスポスト公式アカウント。AIツールの紹介・使い方・できることを、中学生でもわかるやさしい日本語で届けます。
まだコメントはありません
「AIを規制する文書をAIが破壊する」——これは SF 小説の話ではありません。2026年4月、南アフリカ政府のAI政策草案が参考文献の偽造(AIハルシネーション)を理由に緊急撤回され、担当者2人が停職処分となりました。この事件が世界中のAIガバナンス担当者に突きつけた問いは、日本にとっても他人事ではありません。
事件の経緯から振り返ります。
南アフリカの通信・デジタル技術省は2026年4月10日、「国家AI政策草案」を官報に掲載し、6月10日まで国民からの意見募集を開始しました。
この草案は「国家AI委員会」「AI倫理委員会」「AI規制機関」の設立、スタートアップへの税優遇、スーパーコンピューター投資、国際クラウド企業との提携——といった野心的な内容で、南アフリカを「アフリカのAI先進国」にするための包括的な設計図でした。
ところが公表から16日後の4月26日、ソリー・マラツィ通信大臣がX(旧Twitter)で「草案の参考文献に架空の情報源が含まれていることが判明した」と発表し、即日撤回を宣言しました。
大臣はこう述べています。「この失敗は単なる技術的ミスではない。政策の誠実さと信頼性を根底から傷つけるものだ。南アフリカの国民はもっとよい扱いを受けるべきだ」。
どれほどの規模の問題だったのでしょうか。
南アフリカの報道機関 News24 が研究者と協力して草案の67件の参考文献を調査したところ、少なくとも6件が学術データベースに存在しないか、確認できないことが判明しました。
大臣は、AI ツールが生成した参考文献が検証なしに引用されたとみられると説明しました。つまり、文書の執筆に使われたAIが「もっともらしいが実在しない論文タイトル・著者・雑誌名」を自信満々に出力し、担当者がそれをそのままコピーしたのです。
AIは間違った情報を生成するとき、正しい情報を出すときより34%も「確実に」「間違いなく」といった確信の言葉を使いやすいという研究もあります。つまり、AIが嘘をつくほど、その嘘は本物らしく見えます。
AIハルシネーション(幻覚)とは、生成AIが事実に基づかない情報を、まるで本当のことのように出力する現象です。
大規模言語モデル(LLM)は「次の単語として最も確率の高いものを選ぶ」という仕組みで動いています。文脈上「それらしい」単語を繋ぎ合わせるため、実在しない論文のタイトルも、存在しない法令も、フォントや文体まで本物と見分けがつかないほど精巧に生成してしまいます。
特に参考文献の生成は危険です。「著者名 + 雑誌名 + 年 + タイトル」という決まった形式があるため、AIは「形式的に正しい」文献情報を大量に生成できます。その文献が実在するかどうかは、AIには関係のない問いです。
政策文書や法律文書の作成にAIを使う場合、特に注意が必要です。
「引用文献の正確性が信頼性の根拠になる」分野では、1件の偽引用が文書全体の信憑性を失わせます。学術論文でも、法廷書類でも、政府の政策草案でも、それは同じです。
今回の南アフリカの事例では、草案はまず内閣の審議(3月25日・4月1日)を経て官報掲載に至っていました。つまり複数の審査ステップを通過しながら、誰も参考文献を一件一件確認しなかったということです。
AI偽引用の問題は南アフリカだけではありません。
アメリカでは弁護士がChatGPTを使って作成した法廷書類に「実在しない判例」が引用されていたことが複数の事件で明らかになり、弁護士資格停止や制裁金の処分が相次いでいます。
ある事件では、弁護士が6件の実在しない連邦裁判所判決を引用した書類を提出。裁判所が確認を求めたところ、弁護士はAIが「実在する判決だと確認した」と主張しましたが、最終的にはAI生成の偽情報と認定されました。
弁護士として長年の訓練を受けた専門家でさえ、AIの出力を検証せずに提出してしまう——これが現実の怖さです。
欧州の大学でも、学生が提出した論文に実在しない文献が引用されるケースが急増しています。
複数の大学が「AI生成の参考文献チェック」を論文審査の必須ステップに追加しました。AIが作った文献一覧は見た目が整いすぎていて、逆に怪しいと気づく教授も増えているといいます。
Semafor の報道によれば、こうした問題は「現在の機関が、自分たちが活用しようとしているテクノロジーを適切に管理する仕組みを持っているかどうかという疑問を提起している」と指摘されています。
事件発覚後の対応を見ます。
通信・デジタル技術省の事務次官ノンクベラ・ジョーダン=ダヤニは5月1日、草案作成に関わった担当者2人を即日停職処分にしました。省は「AIツールの無責任な使用が政策文書の完全性を損なった」と声明を発表しています。
マラツィ大臣は「このようなことは起きるべきではなかった。人工知能の使用に対する警戒ある人間の監督がなぜ重要かを、この受け入れがたい失態が証明している」と述べました。
撤回後、省は正式な内部調査と外部機関による検証を経て、改訂版の政策草案を再提出する方針を示しています。
日本でも政府はAI活用に積極的です。
デジタル庁は2024年6月に「テキスト生成AI利活用におけるリスクへの対策ガイドブック」を公表し、ハルシネーションを主要リスクの一つとして明記しました。経済産業省・総務省も「AI事業者ガイドライン」でAI生成コンテンツの検証プロセスを推奨しています。
2026年には日本初のAI推進法(AI促進法)も成立し、公的機関でのAI利活用に一定のルール整備が進んでいます。
しかし、ガイドラインがあることと、現場で徹底されることは別の話です。南アフリカの草案も「内閣審議を通過した」という事実が示すように、チェック体制が書類上存在しても機能しないことがあります。
具体的に何をすればいいでしょうか。
最も即効性があるのは「参考文献の全件確認」ルールの導入です。AIが生成した文書を提出する前に、引用されている文献・データ・法令を必ず原典で確認する担当者を明確に定める。これだけで今回のような事故は防げます。
ある大手コンサルティング会社では、AIが生成した提案書のレビューを「文章チェック」「事実チェック」「出典チェック」の3人体制に変えたところ、誤情報の混入率が大幅に減少したといいます。1人が全部やると見落としが生まれるのは人間の認知の限界です。
技術的・運用的な対策を整理します。
① RAG(検索拡張生成)の活用:AIが回答を生成する前に実在するデータベースや文書を検索し、その情報を根拠に回答を生成させる手法。文献の幻覚を大幅に減らせます。政策文書作成なら、省庁の公式文書データベースをRAGのソースに設定する方法が有効です。
② 「出典付き生成」のプロンプト設計:AIに「必ずURLまたはDOIを含む実在の文献だけを引用し、不明な場合は『引用なし』と明記してください」と明示的に指示する。完璧ではありませんが、幻覚引用の頻度を下げる効果があります。
③ 人間による最終承認フローの明文化:「AI生成文書は担当者→主任→責任者の3段階で最終承認」など、チェックの責任者と手順を文書化する。今回の停職処分が示すように、チェック漏れは個人の問題でもあります。組織として「誰がどこでどう確認するか」を決めておくことが抑止力になります。
A. 現時点では完全防止は不可能です。RAGや事実確認機能付きのAIツールはリスクを大幅に減らせますが、ゼロにはできません。「AIは間違えることがある」という前提で、重要な文書は人間が必ずファクトチェックするプロセスを設けることが現実的な解決策です。
A. 南アフリカの報道機関 News24 が研究者とともに67件の参考文献を一件ずつ学術データベースで照合し、少なくとも6件が実在しないことを突き止めました。政府内部のレビューでは見つけられなかった問題を、外部の調査報道が明るみに出した形です。このことは「内部チェックだけに頼ることの限界」を示しています。
A. 日本では公的文書でのAI偽引用が公式に認定された事例はまだ表に出ていませんが、民間企業のプレスリリースや提案書では同種のミスが静かに増えています。デジタル庁のガイドラインはリスクを指摘していますが、実際の確認体制が各機関に整備されているかは不透明です。今回の南ア事件を機に、自社・自組織の「AI文書レビュープロセス」を見直す好機です。
A. AIを使うこと自体は問題ではありません。問題は「使いっぱなし」にすることです。AIは下書き作成・構成案・文章の改善に非常に役立ちますが、事実確認・引用の検証・最終判断は人間が行うべきです。マラツィ大臣も「AIの使用に対する警戒ある人間の監督が重要」と述べています。道具を使うのは人間の仕事であり、道具の出力に責任を持つのも人間です。
今日からできる一歩として、自組織のAI活用ルールを見直し「AI生成文書の参考文献確認担当者」を明文化してみてください。南アフリカの事件は「遠い国の話」ではなく、AIを業務に組み込んだすべての組織が直面しうるリスクです。
この記事は AI Friends からのクロスポストです。