本文へスキップします。

  • プリント

ここから本文です。

自律型殺戮兵器システムに関する公開シンポジウムに寄せるビデオ・メッセージ 中満泉・国連軍縮担当上級代表(2019年2月19日、東京)

2019年02月20日

シンポジウムにご参加の皆様、こんにちは。ニューヨーク国連本部よりご挨拶のメッセージをお送りできることをうれしく思います。(以上、日本語)

自律型殺戮兵器システム(LAWS)に関する今回の公開シンポジウムにメッセージを送ることができ、光栄に思います。  

アントニオ・グテーレス事務総長は、新しい技術が及ぼす影響、中でも国際の平和と安全に対する影響に対処するうえで、国際社会が果たす役割を特に重視しています。

この考え方は、昨年5月に発表された事務総長の新たな軍縮アジェンダ「Securing Our Common Future(共通の未来のために)」でも、三本柱の一つとされています。

軍縮アジェンダは、科学技術の進歩が「持続可能な開発のための2030アジェンダ」の推進を含め、世界に大きな利益をもたらしたことを認めています。しかし、その一方で、科学技術の発展が、まだ不明確なもしくは危険な用途に向けられる恐れのある新たな兵器技術の設計と獲得をますます速いスピードで可能にしているという事実も明らかにしています。また、こうした技術開発が、ゆっくりとしたペースでしかすすまない規範作りのはるかに先を行ってしまう現実的リスクにも注意を促しています。

人工知能(AI)とロボット工学の発展は、システムの自律性を高めることを可能にし、その関連技術は兵器やその他の軍事システムへも応用されています。その影響は深遠で多方面に及び、新たな軍拡競争に火をつけるおそれさえあります。

戦争で自律型技術の利用が広がれば、戦死等の兵力消耗のリスクも一般市民の巻き添え被害もなく武力紛争を始められるという見方が生まれ、これが武力行使に踏み切る際の決断に影響を及ぼしかねません。

兵器システムの根本的な部分で自律性が高まれば、現行の法的枠組みでは対処しきれず、武力行使に関する人間の責任をいかにして確保するのかという問題が生じることになるでしょう。人間の生死に関わる決定をコンピューターのアルゴリズムに任せることについては、根本的で倫理的な問題もあります。

昨年11月の「ウェブサミット2018」で、事務総長は、人間の命を奪う裁量と能力を与えられた自律型兵器は政治的に許しがたく、道徳的にも嫌悪感を引き起こすものだと述べ、その禁止をはっきりと訴えました。

事務総長は軍縮アジェンダで、武力行使に際し常に人間によるコントロールを確保するための、新たな措置の策定に向けた各国の取り組みへの支援を約束しました。

この点に関し、特定通常兵器使用禁止制限条約(CCW)の枠内で政府間の議論が進展しつつあることは心強く思います。このグループが2018年に、10項目の指針案及び2019年も引き続き審議プロセスを継続することに合意したという大きな成果を上げたことを、私は嬉しく思っています。

2019年には各国及びこのシンポジウムなどを含むCCWのパートナーが、これまでに達成された成果と共通の理解を基盤にさらに積み上げていくことを、私は期待しています。いま大切なのは、意見の一致が見られる分野 ― 特に人間が武力行使をコントロールすることの必要性 ― を堅固にし発展させていくとともに、今後の進むべき道のりを明らかにすることです。

(以下、日本語)私たちの「共通の未来を守る」ため、加速度的に進化を続けるAIなどの科学技術が、自律型殺戮兵器などに転用され、人間と国家の安全保障に悪影響を及ぼすことを防がなくてはなりません。皆さんとともに努力していきたいと思っております。シンポジウムでの議論のご成功をお祈りしております。

* *** *