AI軍事利用の光と影

2024.05.01

WorkWonders

2022年にOpenAIが発表したChatGPTは、人間のような会話が可能な大規模言語モデル(LLM)を使用していますが、これが軍事に応用される可能性が現実のものとなっています。アメリカ国防総省では、戦争ゲームや軍事計画、基本的な事務作業にLLMを用いた実験を行っており、実際に兵士たちがAIによって選ばれた標的を攻撃する事例も出ています。
しかし、この新技術は予測が困難で危険な決断を下す可能性があり、軍のリスク管理と倫理的側面を考慮し上手く活用するための訓練が必要です。実際、LLMは大量のデータを処理する軍事タスクに適しているものの、その行動は保証されておらず、不要なエスカレーションや誤解を招く危険も内包しています。
それにもかかわらず、LLMは文書作成や事務処理の合理化に貢献しつつ、人間の意思決定を補完する形での軍事計画においても一定の可能性を握っています。国防総省も、AIシステムが予想通りに機能し、倫理原則に従っているかを評価するための指示を出しています。
AIの軍事利用が進む中で、その可能性とリスクを天秤にかけつつ、責任ある使用に向けて、もっと研究が求められているのです。

出典 : https://www.foreignaffairs.com/united-states/why-military-cant-trust-ai

【このニュース記事はAIを利用して書かれています】

著者名 :