アメリカは01年のアフガニスタン戦争以降、無人機を使用し始め、イラク戦争以降はさらに拡大している。すでにアメリカの保有する戦闘機の3機に1機が無人機だといわれる。シリアやイエメン、ソマリアでも、IS(イスラム国)やアルカイダのメンバーを攻撃するためとして使用されている。アメリカだけではない。イスラエルもパレスチナ・ガザ地区で無人機を使った攻撃を行っている。
アメリカが無人機の導入を本格化させたのは、オバマ政権時代のことだ。
「オバマ政権は、前ブッシュ政権の下で泥沼化したアフガン戦争、イラク戦争への厭戦気分に応えて登場しました。『核なき世界』の提言などを見ても、前政権と比べれば『平和志向』と言ってよい。オバマはイラクやアフガンに派遣されていた米軍地上兵力の多くを引き揚げました。ところがその代わりに、無人機の使用を拡大したのです」
つまり、自国の兵士を死なせないために、積極的に無人機を使い始めたということだ。
当初、無人機は標的だけを正確に選んで攻撃できるスマート(賢い)な兵器だと考えられていた。核兵器廃絶を目指すNGOの中でさえ、「核兵器のように無差別大量に人を殺傷する兵器よりマシなのでは」という声も聞かれたという。
「ところが実際にはちっともスマートではなかった。かなりの率で誤爆が起きているのです」
アフガニスタンとパキスタンの国境地帯で、アメリカ軍はタリバンやアルカイダの戦闘員と目される者を上空から発見しては攻撃を繰り返している。その過程で、無関係な多くの民間人が相当な率で誤爆され、死亡しているのだ。
パキスタン北西部に住むナビラ・レフマンという9歳の少女は、12年10月、家族と共に畑仕事や牛の世話をしているときに、突然、無人機によって攻撃された。彼女のお祖母さんが死亡し、彼女自身も重傷を負った。
「パキスタンでは、アメリカの無人機による攻撃で17年4月までに4000人以上が亡くなり、そのうち1000人が一般市民だったという調査結果もあります」
ナビラが殺された前月 、12年9月には、アメリカがイエメンで地元の有力者を殺害する目的で小型バスを無人機で攻撃。ところがこのバスに有力者は乗っておらず、代わりに無関係な妊婦や子どもを含む12人が命を奪われた。
こうした無人機を操縦しているのは、アメリカ南部の基地で「操縦席」に座っている「パイロット」たちだ。彼らは地球の反対側のビルの一室でモニターを眺めながら無人機を操り、攻撃対象を見つけてはミサイルを撃ち込んでいる。そして、その日の仕事が終われば、家族の待つ自宅に帰る。
「プレイステーション症候群 と言うのですが、こういう任務を続けているとゲーム感覚になってしまい、人を殺しているという実感がなくなってしまう。中には、その乖離が生む自責の念に苦しみ、PTSD(心的外傷後ストレス障害)となる人もいます」
また、無人機は人間が完全に操縦しているわけではなく、半自律的に飛行するようプログラムされている。中にはかなり重要な判断をITによって行うものもある。
「例えば、腕を振り上げて跳躍運動をしている人を自動的に『キャンプで訓練に励むテロリスト』と判断するようプログラムされているということもあります。そのため、村人が腕を振り上げているだけで攻撃されてしまう」
14年、国連の人権理事会で「人権とテロに関する特別報告者」であるベン・エマーソンが無人機に関する報告書を発表。無人機を使用する各国に情報公開と専門家による実態調査を求めた。しかしアメリカは、誤爆被害の実態を明らかにしていない。川崎さんによれば、無人機による攻撃の多くは軍ではなくCIA(中央情報部)による諜報活動に属しており、軍の作戦以上にその全貌は隠されているのだという。
戦争のAI化とどう向き合うか
「人間が100%関与しない自律的な殺人ロボットの登場を待たずとも、戦争のIT 化による人道問題はすでに深刻化しているということです。そもそも、『人間の関与』について、人為的な判断が 存在するかしないかという二分法で判断できるのでしょうか。関与と言っても形式的なものにすぎない場合もあります。人間の関与の有無を100%か否かで見るのではなく、関与の度合いという一定の幅で、いわばグラデーションとして見る必要があると思います」
例えば、ネットで何らかの契約や登録をする際を考えてみればいい。小さな字でびっしり書かれた契約書が示され、最後に「同意しますか」と聞いてくる。
「同意するしかないですよね。こういうとき、『100%自分で決定している』と言えるのでしょうか」
行動選択のための判断材料となる情報についても同じだ。検索エンジンサービスが、私たちの検索記録などの情報を分析して「あなたはこういう商品がお好みでしょう」と尋ねてくる。たいてい当たっている。私たちは、決定の前提となる情報の選択を、すでにITに委ねているわけだ。この場合、私は「100%自分で決定した」と言えるのだろうか。
戦争 についても同じだと川崎さんは言う。人間が関与する度合いが、IT化が進むに従って極小化していくということだ。
「人間の関与が100%存在しない殺人ロボットを規制することはもちろん必要です。しかし、それだけでは不十分です。『同意します』ボタンのように、『人間の関与』を形式的に残しながら実情としては完全自律、という兵器が登場するだけではないでしょうか 。戦争や人殺しについての判断を情報技術や人工知能に委ねてしまう事態を実際に規制するには、ITやロボットの開発過程でのガイドラインをつくり出すことが必要だと思います」
川崎さんは今後、殺人ロボットを頂点とするロボット兵器、無人機の問題について、幅広い、そして深い議論を呼びかけていきたいと考えている。
「この問題は、反戦平和運動の枠では捉えきれないテーマをはらんでいます。オバマ政権について指摘したように、『これ以上、兵士が死なないように』という、一面では人道的な発想がロボット化を推進している現実がある。一方でITやロボット関連業界でも、このままではマズい、何らかの規制が必要だ、と考えている人がいるはずです。右翼か左翼かといった次元ではくくれない。戦争のIT化、AI化とどう向き合うか。各方面の専門家の知恵を集めながら、幅広く、また掘り下げた議論をつくっていきたい。とくに、新しい技術を担っていく若い世代にこそ、よく考えてほしいと思います」