【ワシントン時事・IT総合】 米国のトランプ大統領は2026年2月27日(現地時間)、AIスタートアップ大手 Anthropic(アンソロピック) の製品および技術について、すべての連邦政府機関での使用を直ちに停止するよう命じました。同社が掲げるAIの「安全策(セーフガード)」が軍事利用の妨げになっているとし、同社を「国家安全保障上のサプライチェーン・リスク」に指定。これを受け、国務省や財務省などの主要機関が相次いで同社製AI「Claude(クロード)」の利用終了を発表するなど、米政府とAI業界の間に深刻な亀裂が走っています。


1. 「極左の意識高い系」——トランプ氏による異例の非難

事態のきっかけは、トランプ氏が自身のSNS「Truth Social」で行った激しい投稿でした。トランプ氏はAnthropicを**「極左の意識高い系企業(Radical Left, Woke Company)」**と呼び、「米軍の戦い方を憲法ではなく自社の利用規約に従わせようとした」と非難。連邦政府全体に対し、同社との取引を即時停止し、6か月以内に完全に排除するよう指示しました。

ピート・ヘグセス国防長官もこれに同調し、同社を中国のファーウェイ(華為技術)などと同様の「サプライチェーン・リスク」に指定。これにより、米軍と取引のあるすべての請負業者やパートナー企業も、同社技術の商用利用ができなくなるという、民間企業としては極めて異例の厳しい制裁措置が取られることとなりました。

2. 決裂の背景にある「AIの軍事利用」と「安全策」

今回の対立の核心は、Anthropicが頑なに維持しようとした**「AI利用に関するレッドライン(譲れない一線)」**にあります。

国防総省(ペンタゴン)は、AIモデルを軍事作戦に導入するにあたり、企業側に対して「あらゆる合法的な利用」を認め、既存の安全制限を撤廃するよう要求していました。しかし、Anthropicのダリオ・アモデイCEOはこれを拒否。特に以下の2点については譲歩できないと明言しました。

  • 完全自律型致死兵器への転用: 人間の介在なしにAIが攻撃判断を下すシステムの構築。
  • 米市民に対する大規模監視: AIを用いた広範なプライバシー侵害につながる監視活動。

アモデイ氏は「人間の判断を介さない兵器転用は兵士や民間人を危険にさらす」とし、「良心に従って要求には応じられない」と公式ブログで発表。この「拒否権」の行使が、トランプ政権の逆鱗に触れた形です。

3. OpenAIの「電撃合意」と業界の分断

Anthropicが排除される一方で、競合の OpenAI(オープンAI) は極めて機敏に動きました。トランプ氏の投稿からわずか数時間後、OpenAIは国防総省の機密ネットワークへのAIモデル導入で合意したと発表しました。

サム・アルトマンCEOは、大規模監視や自律型兵器への利用禁止といった「中核的な安全原則」は維持したと主張していますが、政府の要求を汲み取る形で契約を締結。これにより、Anthropicが抜けた穴をOpenAIが埋める構図が鮮明になりました。

この動きに対し、GoogleやOpenAIの従業員数百名がAnthropicの姿勢を支持する公開書簡を送るなど、シリコンバレー内部でも「技術の倫理」と「国家への協力」を巡って意見が二分されています。

4. 今後の展望と法廷闘争

Anthropic側は、今回のサプライチェーン・リスク指定を「報復的かつ不当」として、法廷で争う構えを見せています。また、同社の主力モデル「Claude」は米国のApp StoreでChatGPTを抜いてランキング1位を獲得するなど、一般ユーザーからはその「安全重視」の姿勢が高い支持を得るという皮肉な現象も起きています。

今回の事態は、単なる一企業の排除に留まらず、今後の「AI大国・米国」が技術の倫理規制をどのように扱うか、その方針を決定づける大きな転換点となりそうです。


🔗 関連ニュースURL

By tokita

コメントを残す

メールアドレスが公開されることはありません。 が付いている欄は必須項目です