Smiley face
写真・図版
防衛省=東京都新宿区

 防衛省は6日、AI(人工知能)活用の兵器の研究開発をめぐり、AIのリスクを管理しながら利用を進める「AI適用ガイドライン」を初めて策定し、発表した。無人機などAI兵器開発について「高リスクと低リスクに分類」「法的・政策的審査」「技術的審査」の3段階で歯止めをかける内容だ。

  • 自衛隊の指揮統制にAI活用 初指針「前例ない状況」で限界も指摘

 同省は昨年7月、AI活用の基本方針を策定。「指揮統制」など七つの重点分野を設定する一方、「人間による関与」の必要性を明記した。基本方針を受け、今回のガイドラインで兵器の研究開発でのAI適用の考え方と審査体制を示した。

 具体的には、研究開発の対象を「高リスク」と「低リスク」に分類。例えば攻撃対象をAIが特定し、そのままミサイル発射につながるなら「高リスク」、AIが対象を特定しても扱いを人間が判断する場合は「低リスク」と判断される。

 「高リスク」の場合、防衛省…

共有