AIの軍事利用(AI in Warfare)

AIの軍事利用とは
AIの軍事利用とは、偵察、標的の特定、戦術の立案、さらには攻撃の実行に至るまで、軍事作戦のあらゆる段階に人工知能を導入することを指します。
近年議論の的となっているのは、人間の関与なしに標的を選び、攻撃を行う可能性のある「自律型致死兵器システム(LAWS:いわゆるキラーロボットと呼ばれることもある)」だけではありません。生成AIや大規模言語モデル(LLM)が、情報分析、作戦計画、サイバー作戦など、軍事活動の上流工程に利用されるケースも広がりつつあります。たとえば2026年には、Anthropicの「Claude」が米国防当局の情報分析や作戦計画などに利用されていることをめぐり、軍事領域における生成AIの役割と、その利用範囲を誰が制御するのかが議論になっています。
「AIは戦争を『効率的』にするかもしれないが、同時に『不可解』にし、人間から責任の重みを奪い去る危険がある」
私たちはいま、テクノロジーによって戦争の判断がどこまで変わるのか、そして人間がどこに責任を持ち続けるべきなのかを問われています。
AI軍事利用は何が問題なのか(Issue)
AIが戦場に導入されることは、単なる兵器の高性能化を意味しません。それは、人類が数世紀かけて築き上げてきた「戦争のルール(国際人道法)」や「命の尊厳」のあり方を根底から揺るがす、複数の深刻な問題を孕んでいます。
責任の空白(アカウンタビリティ・ギャップ)
AIが軍事作戦に導入される際、最も深刻な法的課題の一つが「責任の空白(アカウンタビリティ・ギャップ)」です。赤十字国際委員会(ICRC)は、自律型兵器システムが引き起こした結果に対して、誰が責任を負うのかが不明確になることを危惧しています。
AIの判断プロセスはしばしば「ブラックボックス」化しており、なぜ特定の攻撃が行われたのかを人間が遡って検証することが困難です。その結果、国際人道法に違反する事態が生じた場合に、指揮官、開発者、製造者、国家などの責任をどのように整理するのかが難しくなる可能性があります。責任の所在が曖昧になれば、被害者の救済が困難になるだけでなく、違法行為への抑止力が弱まるおそれもあります。
生命の脱人間化と尊厳の欠如
ストップ・キラーロボット(Stop Killer Robots)などの国際キャンペーン団体は、AIによる標的の自動選別を「デジタル・デヒューマナイゼーション(デジタルの脱人間化)」と呼び、倫理的な観点から強く批判しています。アルゴリズムにとって、人間は単なる「データポイント」や「計算対象」に置き換えられ、そこには命の重みに対する共感や良心が介在する余地がありません。機械に人間の生死を決定させることは、国際法の基本原則である「マールテンス条項」が定める「人道の諸法則」や「公衆の良心の要求」に反し、人間の尊厳を根本から損なうものと考えられています。
さらに、AIが提示するインターフェースを通じて攻撃判断を行うプロセスは、攻撃する側と被害を受ける側の心理的距離を広げるおそれがあります。画面上のスコアや推奨結果をもとに判断することで、現地で生じる被害や人命の重みが見えにくくなり、武力行使への心理的なハードルが下がることが懸念されています。
バイアスが生む誤認識と民間人保護への影響
国連軍縮研究所(UNIDIR)は、AIシステムが学習データに含まれる偏り(バイアス)を継承し、特定の集団に対して差別的な判断を下すリスクを報告しています。たとえば、学習データやセンサー情報に偏りがある場合、特定の属性、地域、服装、行動パターンなどが過度に「脅威」と結びつけられる可能性があります。
その結果、民間人や特定の集団が不当に危険にさらされるおそれがあります。このようなアルゴリズムのバイアスは、戦場における民間人の保護を困難にするだけでなく、構造的な差別を軍事行動の中に固定化させてしまう危険性を孕んでいるのです。
意思決定の高速化と偶発的エスカレーション
ストックホルム国際平和研究所(SIPRI)などの研究機関は、AIによる意思決定の高速化が、国際的な安全保障を不安定にする可能性を指摘しています。AIによって軍事的な意思決定が高速化すると、人間が状況を十分に確認する前に攻撃や報復の判断が連鎖する、いわば「フラッシュ・ウォー」と呼ばれるようなリスクが生じる可能性があります。
また、AIによる誤認識や誤警報が、国家間の不信感と相まって、意図しない武力衝突や核兵器の使用を含む大規模な紛争へと急速にエスカレーションさせる懸念が持たれています。
国際人道法の遵守における技術的限界
AIが国際人道法の基本原則である「区別原則(戦闘員と民間人の区別)」や「比例原則(軍事的利益と民間人被害の均衡)」を遵守できるかについては、技術的な限界が指摘されています。戦場という極めて複雑で予測不可能な環境において、高度な文脈理解を必要とする法的判断をAIが正確に行うことは困難です。
現在の技術水準では、国際法が求める民間人保護の基準をAIシステムが安定して満たせるのかについて、慎重な議論が続いています。国際的な政府専門家会合(GGE)などの場でも、自律型兵器システムと国際人道法の整合性は重要な論点となっています。
AI軍事利用にまつわる現状(Current Situation)
2026年現在、AIの軍事利用は、研究・実験段階にとどまらず、一部の紛争地や国防システムで実用化が進んでいます。
実戦投入の加速:ガザとウクライナでの活用
AIはすでに実験段階を終え、実際の紛争地で標的の特定や攻撃の意思決定支援に投入されています。ガザ地区での軍事作戦をめぐっては、イスラエル軍が「Lavender」や「Habsora/The Gospel」と呼ばれるAI支援システムを標的候補の抽出や攻撃対象の選定支援に用いていると、複数の調査報道が伝えています。
これらの報道では、候補生成の速度や人間による確認の十分性、誤認の可能性をめぐって、国際人道法や人権の観点から懸念が示されています。また、ウクライナ侵攻においても、電波妨害を回避して自律飛行するAI搭載ドローンが実戦投入されており、戦場におけるAIの役割は急速に拡大しています。
テック企業の規約変更と国防総省との連携
これまで軍事利用に慎重だった大手テック企業の姿勢に大きな変化が見られます。OpenAI社は2024年1月、利用規約から「軍事および兵器への利用禁止」という文言を削除し、米国防総省(ペンタゴン)とのサイバーセキュリティ分野等での連携を開始しました。
同社は「兵器開発」への利用は依然として禁止しているものの、国防関連のインフラ整備やソフトウェア開発への道を開いています。このように、シリコンバレーのスタートアップから巨大テック企業に至るまで、国防当局との契約を強化し、軍事エコシステムの一部に組み込まれる動きが加速しています。
国際的な規制枠組みの模索:REAIMと国連
AIの軍事利用に関する国際的なルール作りも進められています。2024年9月には、韓国で「AIの軍事利用に関する閣僚級会合(REAIM 2024)」が開催され、日本を含む60カ国以上が「行動指針(Blueprint for Action)」を採択しました。
この指針では、AIによる武力行使において「人間による適切な関与」を維持することや、核兵器の運用にAIが関与することを防ぐ重要性が強調されました。しかし、これらの合意に法的拘束力はなく、開発を主導する大国間での実効性のある規制をいかに構築するかが国際的な課題となっています。
市民社会と従業員による抵抗運動
テック企業の軍事連携に対し、開発現場の従業員や市民社会からの反発も強まっています。Googleでは、イスラエル政府とのクラウド契約「Project Nimbus」に抗議した従業員が解雇されたと報じられました。Google側は、契約が機密性の高い軍事・情報活動に関わるものではないと説明しています。
一方、抗議した従業員や市民団体は、自分たちが開発・提供する技術が監視や軍事行動に使われる可能性を懸念しています。このような「技術の平和利用」を求める動きは、テック業界全体における重要な論点となっています。
AI軍事利用に関する議論(Controversy)
AIの急速な発展は、現代の戦争や安全保障のあり方を大きく変えつつあります。膨大な情報を瞬時に処理し、兵器の精密性や意思決定の速度を飛躍的に高める一方で、その導入は単なる技術革新にとどまりません。戦争における「誰が、どのように判断するのか」という意思決定のあり方そのものを揺るがしています。
この問題は、技術だけでなく、倫理、法、そして国際政治が複雑に交差する領域にあります。議論の中心にあるのは、「人間の生死に関わる判断を、どこまで機械に委ねてよいのか」という根本的な問いです。
ここでは①人間の関与のあり方(自律型兵器と統制)、②国際人道法との整合性、③責任の所在、④技術的リスク、⑤国際政治上の影響の観点から、AIの軍事利用をめぐる主な争点を見ていきます。
①人間はどこまで関与すべきか
AIが人間の関与を最小限にして攻撃対象を選び、場合によっては殺傷まで行う兵器は、「自律型致死兵器システム(LAWS)」と呼ばれます。
こうした中で問われているのが、「人間はどこまで関与すべきか」という点です。議論の中核にあるのが、「意味ある人間の統制(Meaningful Human Control)」という考え方です。これは、人間が兵器の使用に対して実質的な関与と責任を持ち続けるべきだとする原則ですが、何をもって「意味ある」とするのかについては、国際的に統一された定義は存在していません。
また、AIの導入によって人間よりも被害を減らせる可能性があるという指摘もありますが、それでも「殺す判断を機械に委ねてよいのか」という問いは残ります。効率性や被害軽減と、人間の尊厳や倫理をどのように両立させるかは、いまだ明確な答えのない課題です。
さらに、こうした兵器の扱いをめぐっては、全面的な禁止を求める立場と、一定の規制のもとで運用を認める立場とで、国際的な意見が大きく分かれています。
主な論点
- 機械が人間の生死を判断することは許容されるべきか
- 誤作動や誤認識による民間人被害をどこまで防げるのか
- 判断の主体が機械に移ることで、責任の所在が曖昧になるのではないか
②国際人道法をAIに実装できるのか
軍事におけるAIの利用は、国際人道法との整合性という観点からも大きな課題を抱えています。戦争においては、民間人と戦闘員を区別する「区別原則」や、軍事的利益に比べて被害が過大でないかを判断する「比例原則」などが守られなければなりません。
しかし、実際の戦場はきわめて複雑で、状況や文脈に応じた判断が求められます。こうした判断をAIが安定して行えるのかについては、疑問が指摘されています。
主な論点
- 文脈に依存する法的判断をAIが十分に行えるのか
- 区別原則や比例原則といったルールをアルゴリズムとして実装できるのか
③責任は誰が負うのか
AI兵器によって誤爆や違法な攻撃が発生した場合、誰が責任を負うのかという問題も重要です。責任の所在が曖昧になると、被害者の救済が困難になるだけでなく、違法行為に対する抑止力が弱まるおそれがあります。
この問題は「アカウンタビリティ・ギャップ」と呼ばれています。
特に、深層学習などの技術によって判断過程がブラックボックス化している場合、事故と違法行為の区別が難しくなるという問題も指摘されています。
主な争点
- プログラマー、製造者、指揮官、国家などのどこに責任を帰属させるべきか
- AIの判断過程をどのように検証するか
④バイアスや誤認識をどう防ぐのか
AIは学習データやセンサーに依存して判断を行うため、特定の地域や人種、状況に偏った「バイアス」を持つ可能性があります。これは単なる個別の誤りではなく、構造的な偏りとして現れる点が特徴です。
こうした偏りは誤認識を引き起こし、民間人保護に深刻な影響を与えるおそれがあります。また、AIの判断の根拠を人間が十分に理解できない「透明性の欠如」も、国際人道法の遵守を難しくする要因となります。
主な争点
- 学習データの偏りにより、標的の誤認識が起きないか
- 悪天候やノイズ、敵の欺瞞などに対する脆弱性はないか
⑤軍拡競争を加速させないか
AIをめぐる技術開発競争は、米国、中国、ロシアなどを中心に急速に進んでいます。この競争は、相手国への不信感から軍備を拡大してしまう「安全保障のジレンマ」を引き起こす要因にもなっています。
AIの導入によって意思決定が高速化すると、人間が介在する余地が小さくなり、誤判断や誤警報が短時間でエスカレーションにつながるリスクも高まります。こうした状況は、偶発的な衝突が大規模な紛争へと発展する危険性をはらんでいます。
また、AI兵器は核兵器と比べて開発・拡散のハードルが低く、非国家主体に広がる可能性も指摘されています。
主な争点
- AI開発競争は、国家間の不信をどこまで加速させてしまうのか
- 意思決定の高速化は、誤判断や偶発的衝突のリスクをどこまで高めるのか
- AI兵器の拡散は、どのようにすれば統制可能なのか
⑥民生技術の軍事転用をどう考えるか
AIは軍事と民生の両方で利用される「デュアルユース」技術です。そのため、民間で開発された技術が軍事目的に転用されるケースも少なくありません。
また、遠隔操作や自律化が進むことで、兵士が戦闘行為から心理的に距離を置くようになり、武力行使のハードルが下がるのではないかという懸念もあります。こうした変化は、戦争のあり方そのものに影響を与える可能性があります。
主な争点
- 民生技術の軍事転用を、どこまで防ぐことができるのか
- 技術者や企業は、軍事利用にどこまで責任を負うべきか
- 武力行使の心理的ハードルの低下は、紛争のあり方をどう変えるのか
- 企業は、自社技術の利用先にどこまで責任を持つべきか
- 技術者は、軍事利用に関わるプロジェクトを拒否できるのか
- 利用者や市民は、企業や政府にどのような説明を求められるのか
AI軍事利用に対してできること(What we can do)
国際的な法的枠組みの構築と「意味ある人間の関与」の義務化
AIの軍事利用を制御するうえで重要なのは、技術的な安全対策だけでなく、法的拘束力のある国際ルールを整えることです。AIによる攻撃の最終決定には必ず人間が関与し、その結果に法的責任を負うという「意味ある人間の関与(MHC)」の義務化が急務です。これは単なる倫理指針ではなく、国際人道法に基づいた法的拘束力を持つ条約でなければなりません。
すでにその兆しは現れています。2024年にオーストリアで開かれた国際会議には、140カ国以上が参加し、自律型兵器システムをめぐる国際的な規制の必要性が議論されました。2026年現在も、国連や特定通常兵器使用禁止制限条約(CCW)の枠組みなどで、自律型兵器の禁止・規制のあり方をめぐる議論が続いています。私たちが市民としてできることは、自国政府に対し、これらの国際的な規制案に賛同し、リーダーシップを発揮するようロビーイングや署名活動を通じて働きかけることです。
テック企業の軍事契約に対する「透明性監視」と社会的責任の追及
巨大テック企業が軍事・安全保障領域に関与する際には、その契約内容や利用範囲について、社会的な監視と透明性が求められます。企業がどのような軍事・監視プロジェクトに関与しているかを公開させる「透明性」の確保を、ESG投資の基準や法的義務に組み込むべきでしょう。
具体的な動きとして、米国の「Tech Workers Coalition」などの団体は、企業と国防当局の不透明な契約を内部から告発・可視化する活動を続けています。個人としては、自分が日常的に利用しているAIサービス(ChatGPTを提供するOpenAIなど)の規約変更や軍事提携に注視し、利用するサービスのポリシー変更に関心を持ち、必要に応じて問い合わせる、意見を送る、サービス利用を見直すといった行動もできます。 利用者の声や選択は、企業に対して倫理的な説明責任を促す一つの手段になります。
エンジニアの「良心的拒否権」の確立と連帯
技術の「出口」を担うエンジニアが、自らの開発したコードが殺傷目的に使われることを拒否できる権利を確立し、それを支える社会構造を構築する必要があります。一人のエンジニアが拒否しても、代わりの人間が雇われるだけの現状を変えるには、業界全体での「連帯」が不可欠です。
すでに2024年には、イスラエル政府とのクラウド契約「プロジェクト・ニンバス」に反対するGoogleの従業員らが、解雇のリスクを冒して大規模な抗議活動を行いました。学術界や市民社会の中には、AIの平和利用を掲げ、軍事研究との関わり方を見直そうとする研究者や団体もあります。私たちは、こうした「良心的拒否」を行う技術者を孤立させないための法的保護制度や、平和利用を専門とするエンジニア向けのキャリア支援コミュニティを社会全体で育てていく必要があります。
【参照サイト】ICRC position on autonomous weapon systems
【参照サイト】Stop Killer Robots
【参照サイト】Artificial Intelligence Beyond Weapons
【参照サイト】Impact of Military Artificial Intelligence on Nuclear Escalation Risk
【参照サイト】自律型致死兵器システム(LAWS)について|外務省
【参照サイト】AI兵器の登場で兵士不足は解消される? アメリカ、イスラエルの識者に聞いた
【参照サイト】ハマス戦闘:1割のエラーを「容認」 民間人を犠牲にするイスラエルのAI兵器 | 毎日新聞
【参照サイト】ウクライナがAI支援の攻撃ドローンを本格配備 ロシア軍の損害急増の一因か | Forbes JAPAN 公式サイト(フォーブス ジャパン)
【参照サイト】オープンAI、米政府との契約を変更 軍事利用について批判され – BBCニュース
【参照サイト】OpenAIが「軍事利用禁止ポリシー」を撤回、米国防総省に協力姿勢 | Forbes JAPAN 公式サイト(フォーブス ジャパン)
【参照サイト】軍事領域におけるAI及び国際の平和及び安全への影響に関する
【参照サイト】「軍事分野AI」決議案、国連総会の第1委員会で採択 : Korea.net
【参照サイト】Responsible by Design: A Conversation with the Global Commission on Responsible AI in the Military Domain | United Nations Office for Disarmament Affairs
【参照サイト】米グーグル、イスラエルとのクラウド契約に抗議の従業員28人を解雇 – CNN.co.jp
【参照サイト】グーグル、抗議活動参加者を解雇-イスラエルとの12億ドル契約巡り – Bloomberg
【参照サイト】Meaningful Human Control in Weapon Systems: A Primer
【参照サイト】AI兵器の「国際ルール」呼びかけ ウィーンで会議 – 日本経済新聞
【参照サイト】特定通常兵器使用禁止制限条約 自律型致死兵器システムに関する政府専門家会合の開催(2024年3月)|外務省
【参照サイト】アマゾン、クラウド部門の会議が抗議で中断-イスラエルとの契約巡り – Bloomberg
【参照サイト】AI for Peace










