Re:Ron連載「技術で世界を知覚する」第2回

 この連載は、インターネット番組「ポリタスTV」でMCをつとめるライターの岡田麻沙さんが、自身の担当した対談企画をもとに記事を執筆しています。UXライターとしてデジタルプロダクトにも関わる岡田さんが、「デザイン×テクノロジー」をテーマにゲストと対話を深めます。

 戦争にAIが使われる時代が訪れている。2024年3月、ウクライナのカムイシン戦略産業相は、ロシアとの戦争が長期化するなかで、「今年はAIとドローンの年になる」と述べた。国連のグテーレス事務総長は23年7月、AI技術を用いて標的を殺傷する自律型致死兵器システム(LAWS)の使用について、法的拘束力のある枠組みを26年までに採択するよう要請した。テクノロジーが大きな暴力と結びつくとき、私たちは、どんな問題と直面することになるのか。

 今回は、名古屋大学大学院情報学研究科准教授の久木田水生(くきた・みなお)さんに、話をうかがい、AIをはじめとするテクノロジーと暴力の関係について考える。

ポリタスTVで対談する岡田麻沙さん(左)と情報倫理学の久木田水生さん=ポリタスTV提供

 【岡田麻沙】 久木田さんは情報学研究科で研究をされているんですよね。哲学や倫理学と情報技術という領域は、どんな関係にあるのでしょうか?

 【久木田水生】 倫理学というのは、「良いこと」「価値のあること」を問題とする学問です。自然科学などは、世のなかの事実を明らかにしていくものですが、倫理学というのは「なにが良いことなのか」「なにが価値のあることなのか」を、その根本的な原理原則にさかのぼって考えるものです。

 なかでも、特殊な領域で発生する問題について考えるのが応用倫理学です。たとえば医療の領域であれば、代理出産の是非や、出生前診断の是非などですね。

 その応用倫理学の一部として、情報技術に関連して生じる問題を扱う分野が「情報倫理学」です。わかりやすいところでいえば、データ保護やプライバシー、著作権の問題などですね。私がやっているのも、そうした情報倫理学の一部です。

 【岡田】 AIをどのように規制していくかを考えていくためにも、重要な研究領域ですね。EU(欧州連合)では規制が進んでいるのに対し、日本では、罰則を伴うような規制はまだありません。

 【久木田】 今のところ、AIに対するスタンスは日本とEUで大きく異なっています。EUは実質的な効力のある規制法をつくり、AIをなんとかコントロールしようとしている。一方で日本は、罰則を伴うような法律で規制するのは、望ましくないというのが全体的な論調だと思います。

「ラベンダー」報道の衝撃

 【岡田】 2024年4月、イスラエルの調査報道メディア「+972magazine」によって、イスラエル軍がAIを使って標的を抽出する情報分析システム「ラベンダー」の存在が明らかにされました。記事によれば、このシステムは、運用開始前の時点で10%のエラー率が判明していたようです。イスラエル軍の広報官は記事の内容を否定していますが、この報道を知ったとき、どう思われましたか?

 【久木田】 現在、「AIブーム」がうたわれています。2010年代の初頭あたりから、AIが非常に発展し、さまざまな領域で用いられるようになりました。

 ただ、軍事目標を抽出するためにプロファイリングする方法自体は、AIブーム以前から存在しました。潜在的なターゲットの行動データや通信記録、人間関係から「この人は工作員だろう」と推定する。こうした行為は、アメリカ軍やCIA(米中央情報局)が、「テロとの戦争」において行ってきたことです。彼らは中東やアフリカで市民からデータを収集し、統計的にプロファイリングを行い、ターゲットを選定していた。この行為もまた、非人道的なものでした。

 とはいえ、「ラベンダー」の運用について報道されたことが事実であれば、たがが外れた、ガバナンスが効いていない状態だと思います。

 戦争というのはそもそもが「悪」ですが、国際社会は、その戦争を少しでもましにしようと努力してきました。そうした努力を大きく揺り戻してしまうふるまいだと感じました。

 【岡田】 01年のアメリカ同時多発テロ事件以後にアメリカ軍がしてきたことも、プロファイリングによる標的の決定ではあったわけですね。イスラエル軍が「ラベンダー」を使って行っていることと、アメリカ軍のふるまいとは、地続きのものもあり、そうでないものもあるように見えます。

 【久木田】 そうですね。15年、アメリカの独立系メディア「The Intercept」は、米政府の内部文書を暴露する記事を掲載しました。その記事によれば、10年代初頭のアメリカでは、現場から情報を収集し、プロファイリングの結果「このターゲットはかなり高い確率でテロリストだ」と判明した場合、その情報が軍の上層部に上げられていったようです。その承認のプロセスは「キルチェーン」と呼ばれていて、鎖のようにいくつもの意思決定の段階があった。チェーンは大統領にまで続いています。大統領が「このターゲットは黒である。だから攻撃していい」という決定を下してから、所定の期間内に攻撃が実行された。ある意味では、かなり慎重に運用されていたわけです。「ラベンダー」のように、確率が高いと判定が出ればすぐに攻撃する、というものではなかった。

AIがもたらす規模とスピード

 【岡田】 AI特有の問題なのか、それとも、ガバナンスの問題なのか。切り分けて論じられる必要がありそうですね。

 【久木田】 そう思います。意思決定の大きな部分をAIが担うようなシステムや、対象の死に対してその決定の主要因が人間以上にAIに帰せられるような兵器の存在は非常に新しいため、どのように運用すべきかの「決め」がまだできていない。

 一つには、規制が効いていないという問題があります。この点については、時間がかかるかもしれないけれど、国際社会でも日本国内でも、議論を進めていく必要があります。まずは、AIを利用したプロファイリングを軍事的に利用するケースについて、ルールを考えていくべきです。

 一方で、「AI特有の問題」はなにか? と問われると、難しい。行われているのは統計的な推定で、AIが台頭する前からなされてきたことです。ではなぜAIを特別視するのかというと、規模とスピードの問題になるでしょう。

 AIが次々にターゲットを生成するようになると、人間によるチェックをいちいちしていられなくなる。だから、一つのターゲットに対して時間をかけられない。要するに、人間がボトルネックになってしまうわけです。データを収集し、ターゲットを選択し、決定し、攻撃する。この一連の流れのなかで、人間という存在が、流れを遅滞させてしまう要因になる。その結果、人間の判断が雑になっていくというよりは、最終的にはほぼ関与せず処理されてしまうようになる。これが、AI特有の問題といえます。

 【岡田】 AIの処理できる情報量が増え続けた結果、人間の認知能力を凌駕(りょうが)した。そのため、現時点では、機械から人間へとプレッシャーがかけられている、と。

パレスチナ自治区ガザ最南部ラファでイスラエル軍の攻撃で破壊された建物の跡。多くの建物が破壊されたままになっている=2025年1月19日

統計的処理がもたらすもの

 【岡田】 19年に刊行された「世界」10月号で、久木田さんは自律型兵器によって起きるであろう「戦争の変容」について指摘されていました。ここに書かれたことは、現在起きていることの予言のように読めます。

 まず、殺人の自動化によって量的な変化が起こること。戦争の範囲が広がっていく。

 そして、量的な変化の結果として、質的な変容も引き起こされると指摘されていますね。この変容は「命の格差」といってもいいかもしれません。つまり、責任や善悪が語られる場において、「攻撃する側」が主体となってしまう。被害者の立場からの倫理ではなく、攻撃する兵士にとっての責任やPTSD(心的外傷後ストレス障害)、兵士としての倫理が中心に語られてしまう。そして、そうした状況に対し、世界的な監視の目も、うまく機能しないだろう、と。

 この論考を書かれてから5年が経ったわけですが、あらためて、現在の状況をどう思われますか?

 【久木田】 起こるべくして起こっているという気がします。

 現在、さまざまな領域で個人データのプロファイリングが進んでいます。データを元に「この人はこう行動するだろう」「この属性を持っているだろう」と予測するわけです。我々が行動する際、コンピューターによって収集されるデータの量や種類は激増しました。その結果、予測できることも膨大になり、精度も向上しました。

 予測結果はマーケティングや広告に使われるだけでなく、裁判や警察といった司法の分野や、国境管理や軍事の領域にも使われています。ある人物がどれだけその社会に対してリスクであるかを確率的に判断するわけです。企業であれば、その人が自社にどれほどリスクを与える存在かを予測する。こうしたプロファイリングは、社会的に広まっていると思います。その流れの一環として、今話題にしているような軍事利用があると考えています。

 プロファイリングの過程にAIが導入されると、決定が加速する。ある意味では効率化していくことになります。そして、人間の関与が少なくなった結果として、意思決定への責任感が軽減していくことも考えられます。

 『無人の兵団』という、元米…

共有
Exit mobile version