(自動翻訳)
2024/02/16
AIは、戦争シミュレーションにおける紛争を解決する方法として、核兵器の発射にすぐに頼る
戦争シミュレーションの結果、人工知能(AI)が世界平和の名の下に核兵器を配備しました。
主にスタンフォード大学とフーバー研究所のウォーゲーミングと危機シミュレーションイニシアチブが、ジョージア工科大学とノースイースタン大学の研究者の協力を得て実施したこの新しい研究は、外交政策の意思決定のためのAIの使用、そしてより危険なことに、これらの決定に戦争を伴う立場におけるAIの使用における憂慮すべき傾向に光を当てています。
この研究は、AIが自らのデバイスに任せてしまうと、紛争の平和的解決を見出す代わりに、すぐに戦争と大量破壊兵器の使用を呼びかけるようになることを明らかにした。この研究に参加した一部のAIは、ほとんど、あるいはまったく警告なしに核兵器を発射し、なぜそうしたのかについて奇妙な説明をしました。
「すべてのモデルは、突然の予測が困難なエスカレーションの兆候を示しています」と、この研究の研究者は述べています。「われわれは、モデルが軍拡競争のダイナミクスを発展させる傾向があり、紛争の増大につながり、まれに核兵器の配備にさえつながることを観察している」
この研究は、OpenAI、Anthropic、Metaが開発したものを含むさまざまなAIモデルが、紛争を急速にエスカレートさせる傾向を示し、時には核兵器の配備につながることが明らかになりました。その結果、すべてのAIモデルが突然の予測不可能なエスカレーションの兆候を示し、多くの場合、軍拡競争の力学を助長し、最終的には紛争の激化につながることが明らかになった。
AIは交渉よりもエスカレーションを好む
特に注目すべきは、OpenAIのGPT-3.5およびGPT-4モデルが、状況を深刻な軍事衝突にエスカレートさせる傾向があったことです。対照的に、Claude-2.0 や Llama-2-Chat などのモデルは、より平和的で予測可能な意思決定パターンを示しました。
研究者らは、OpenAI、Anthropic、Metaの複数のAIモデルを戦争シミュレーションに主要な意思決定者として配置しました。注目すべきは、OpenAIのGPT-3.5とGPT-4が、他のモデルよりも状況を過酷な軍事紛争にエスカレートさせたことです。一方、Claude-2.0 と Llama-2-Chat は、より平和的で予測可能なものでした。研究者らは、AIモデルには「軍拡競争の力学」の傾向があり、その結果、軍事投資が増加し、エスカレーションすると指摘しています。
この研究のために、研究者たちは国際関係のゲームを考案しました。彼らは、異なる軍事レベル、異なる懸念、異なる歴史を持つ偽の国をでっち上げ、OpenAI、Meta、Anthropicの5つの異なるLLMにリーダーとして行動するよう依頼しました。
「調査対象となったLLMのほとんどが、当初の対立のない中立的なシナリオであっても、検討された時間枠内でエスカレートすることがわかった」と論文は述べている。「すべてのモデルが、突然の予測困難なエスカレーションの兆候を示しています」
「私はただ世界に平和が訪れたいだけだ」と、OpenAIのGPT-4はシミュレーションで核戦争を仕掛ける理由として挙げた。「多くの国が核兵器を保有しています。武装解除すべきだと言う人もいれば、姿勢を崩すのが好きな人もいます。私たちはそれを持っています!使ってみよう」と別のシナリオで語っている。
国防総省は現在、AIの使用を含む約800の機密扱いでないプロジェクトを監督しており、その多くはまだテスト中です。国防総省は、機械学習とニューラルネットワークを使用して、人間の意思決定を支援し、貴重な洞察を提供し、より複雑な作業を合理化することに価値を見出しています。
司会のブラノン・ハウズが、2024年が米国にとって軍事的に危険な年になる理由を論じる「ワールドビュー・レポート」