「殺人ロボット」の完成は目前
あらかじめ与えられたプログラムに従って自律的に敵軍兵士を探し出し、自律的に殺害する――そんなロボットの完成が近い将来に予想されていることをご存じだろうか。
人工知能(AI)を搭載し、人間が操縦などを通じて関与することなく、100%自律的に任務を遂行する「殺人ロボット(killer robots)」が登場する危険性に今、科学者やIT関係者など多くの人が警鐘を鳴らしている。 昨(2017)年11月には国連でその規制について議論する初の公式会合がもたれた。
昨年、ノーベル平和賞を受賞した 国際NGO「核兵器廃絶国際キャンペーン」(ICAN)で国際運営委員の一人を務める川崎哲(あきら)さんも、殺人ロボットの登場を危惧している一人だ。 川崎さんは、学生時代から平和の問題についての活動や研究を続け、とくに核兵器廃絶について長年取り組んできた。今では、ICANやNGO「ピースボート」などを通じて国際的な活動を展開し、日本や各国の政府関係者とも顔を合わせて議論している。その川崎さんが今年2月、この問題を子ども向けに説明した『マンガ入門 殺人ロボットがやってくる!?』(合同出版)を共著で出版した。
彼が殺人ロボットの問題に出会ったのも、やはり国際NGOの活動の場においてだった。
「人道的軍縮という考え方があります。軍縮を人道的な見地から進めようというものですが、毎年10月、この人道的軍縮についての国際的な集まりが持たれ、様々な分野でこのテーマに取り組むNGOが参加しています。私もICANのメンバーとして出席するわけですが、そこで殺人ロボットの問題に取り組む人々から話を聞きました。詳しく聞くうちに、これは大きな問題だと思うようになりました」
人工知能(AI)を搭載し、人間が全く関与することなく、事前に設定されたプログラムに従って攻撃対象を選択して攻撃する、100%自律型の「殺人ロボット」の開発を進めているのは、アメリカ、ロシア、イスラエル、韓国、中国、イギリスなど十数カ国に上る。
すでに、その一歩手前まで来たと言えそうな兵器も登場している。韓国は北朝鮮と対峙する休戦ラインに「歩哨(ほしょう)ロボット」を配備している。不審者の侵入を感知して後方にいる兵士に知らせ、兵士が指示すれば機関銃と手りゅう弾でこれを攻撃する。イスラエルはパレスチナ・ガザ地区との国境地帯に、自律的に適切なルートを選んでパトロールを行う無人偵察車「ガーディウム」を配備しており、いずれはこれに攻撃機能も加えようとしている。
100%自律型の殺人ロボットは、数年以内に完成するだろうと言われている。そうなる前にあらかじめ開発や配備を規制・禁止すべきだとして、12年には国際NGO主導で「ストップ・キラーロボット 」という国際的キャンペーンも始まった(日本のNGOからは「難民を助ける会」などが参加)。
17年11月には、国連の特定通常兵器使用禁止制限条約(CCW)で初めて、この問題をめぐる公式会合が開催され、約90カ国が参加した。パキスタンやキューバが規制を訴え、22カ国が殺人ロボットの禁止に賛成した。だが開発を進めるアメリカやロシアなどはこれに反対。日本は「民生用のAIの健全な発展を阻害しないよう冷静で現実的な議論が必要だ」と曖昧な主張をしているだけだ(毎日新聞17年12月14日付)。
2月には、衆議院予算委員会で、公明党の遠山清彦議員が殺人ロボットの開発や使用の禁止に向けて日本が主導すべきではないかという趣旨の質問を行ったが、河野太郎外相は「AIなど民生分野における健全な発展が阻害されることがないよう冷静に議論する」べきだという慎重な答えにとどまった。
殺人ロボットがなぜ恐ろしいのか
「殺人ロボット」の何が問題なのか。川崎さんは三つの問題点を指摘する。
一つは、戦争のハードルが下がること。自国の兵士の戦死というコストを心配しなくてもよいのなら、指導者たちは簡単に戦争という手段を選ぶようになる。だが攻撃する側には簡単でも、一方的な攻撃を受けた側は当然報復し、結局は報復の連鎖となるだろう。また、いったんどこかの国で殺人ロボットが登場すれば、他の国もその開発と軍拡競争に走るに違いない。すでにアメリカの後を追ってロシアや中国も殺人ロボットの開発を進めている。
もう一つは、一般市民やすでに降伏している人まで攻撃することになりかねないこと。国際人道法では「戦闘員と一般市民を区別しなければならない」「一般市民を攻撃目標にしてはならない」「無差別で残虐な攻撃はしてはならない」と定めているが、現実の場面でロボットにその峻別ができるか、疑問視されている。さらに、人間が具体的な場面で決定を下さずに攻撃できるとなれば、非人道的で残虐な攻撃に対する抵抗が薄くなることも危惧される。
三つ目は、「エラーが起きたらどうするか」という問題だ。AIのエラーによって誤った対象が攻撃されたり、止まるべきところで止まらなかったりする事態が起きるかもしれない。さらに、エラーの責任を誰が、どう取ることができるのか。
「完全自動運転の自動車が事故を起こした場合、責任を取るべきは誰なのか、という議論があります。乗車していた人の過失なのか、メーカーの製造者責任なのか。それと同じです。ロボットが暴走して誤った殺人を行った場合、誰がどのように責任を取るのか。作戦を命じた司令官か。ロボットを作ったメーカーやプログラマーか。本来は刑事責任に問われるべき殺人の責任としては、どちらもつり合わない。つまり、誰も責任が取れないということです」
今年3月、アメリカで、実証試験中の完全自動運転車が歩行者をはねて死亡させる事故が実際に起きたことは記憶に新しい。
以上のような危険性をはらんでいるからこそ、完成の前から殺人ロボットを禁止すべきだという声が上がっているわけである。
だが川崎さんは、人間の関与が100%存在しない完全自律型のロボットだけが問題なのだろうかと問いかける。
「もちろん私も、殺人ロボットの規制に賛成です。しかし、それだけで充分なのかと言えば疑問だと思います。そもそも上に挙げたような問題点は、すでに大部分、無人機の登場で現実のものになっています」
「無人機」攻撃で一般市民が犠牲に
無人機とは、遠く離れた場所から操縦して地上の標的を攻撃できる無人航空機のこと。簡単に言えば、戦争用のドローンだ。