藤野の散文-私の暗黙知-

毎日の中での気付きについて書いています

倫理と実践。


FTの軍事ロボットの記事。
短いが示唆に富むこんな記事が身近に読めるようになったのは日経のおかげだ。
テクノロジーは、軍需、セックス産業、ギャンブル系で花開く、というけれど「いよいよ 人の 手を離れ」という局面を迎えている。
議論はごく原始的であり、根源的だ。

人が(銃の)引き金を引いたり、(爆破装置の)スイッチを押すこと。が「人対人の戦いの倫理」なのだろうか、ということ。

すでに銃や陸海空で使用される武器には、数多のコンピューターが搭載され、最近のドローンは照準さえ自分で決める。
これのどこまでが「自律型」なのか。
「人が関与しない兵器」を先進国は禁止しようとしているというが、関与ってどこまでのことを言うのだろう。

軍需産業や国防に国の予算が投じられ、結果新しい技術が発明され、実装される。

テクノロジーの宿命的なサイクルも、いよいよ「生命倫理」に近づいてきている。

[FT]「殺人ロボット」が新軍拡競争を引き起こす

2016/5/2 6:30
ニュースソース
日本経済新聞 電子版
 次のような未来のシナリオを想像してほしい。米国主導の連合軍が過激派組織「イスラム国」(IS)を全滅させることを決意し、シリアの都市ラッカを包囲する。敵を追跡して市内を飛び回る自律型飛行ロボットの群れを国際部隊が解き放つ。

 ロボットは顔認識技術を使い、IS最高司令官らを特定・殺害し、組織を壊滅させる。ぼうぜんとし、士気をくじかれたISの部隊は崩壊し、連合軍の兵士と民間人の人命喪失はごく少数で済む――。

 これを技術の有効利用だと思わない人がいるだろうか。

監視用ドローンを操縦するカメルーン兵士。近隣諸国と共同で過激派組織「ボコ・ハラム」の掃討を狙う=ロイター
監視用ドローンを操縦するカメルーン兵士。近隣諸国と共同で過激派組織「ボコ・ハラム」の掃討を狙う=ロイター

 実を言えば、かなり大勢いる。そうした兵器の開発に必要な技術について最もよく知る人工知能(AI)分野の多くの専門家もそうだ。

■大量生産できる「未来のカラシニコフ

 AI研究者のあるグループは昨年7月に発表した公開書簡で、技術がかなりの水準に発達したため「自律型致死兵器システム」(不条理にも「LAWS」として知られる)の配備が、数十年の単位ではなく数年内に可能になると警告した。核兵器とは異なり、このような兵器システムは安価に大量生産でき「未来のカラシニコフ自動小銃」になるという。

 「LAWSが闇市場に登場し、テロリストや、大衆をもっと統制したいと望む独裁者、民族浄化したがっている軍閥の手に収まるのは、時間の問題でしかない」。研究者のグループはこう述べた。「軍用AIの軍拡競争を始めることは間違った考えであり、人間による有意義な制御が及ばない攻撃用の自律型兵器を禁止することで阻止すべきだ」

 すでに米国はおおむね、攻撃用の自律型兵器の不使用を決めている。国連は今月(4月)、LAWSの使用を制限する国際協定の策定を目指し、ジュネーブで再度、主要軍事国94カ国間の協議を開いた。

 主な根拠は道義的なものだ。つまり、ロボットに人間を殺す機能を持たせることは、決して越えてはならない一線を踏みつけることになる。

 地雷禁止キャンペーンでノーベル平和賞を受賞し、「殺人ロボット阻止キャンペーン」の広報を務めるジョディ・ウィリアムズ氏は、自律型兵器を、核兵器よりも恐ろしいものと形容する。「もし一部の人が、人間の生殺与奪の権利を機械に譲ってもいいと考えたとしたら、人間性は一体どこへ向かうのか」

 純粋に道義的なもの以外にも、懸念はある。殺人ロボットは戦争の人的損失を減らし、その結果として紛争の可能性を高めてしまうのではないか。そのような兵器システムの拡散を、どうやって止められるのか。何か問題が生じたら、誰が責任を負うのか。

 哲学のセミナーでは、殺人ロボットに反対するこの道義的な根拠は十分明白だ。問題は、戦争の不透明さの中で見込まれるロボット使用にじっくり目を向けるほど、道徳的な境界線を見分けるのが難しくなることだ。ロボット(限定的な自律性を備えたもの)はすでに、爆弾処理や地雷除去、ミサイル迎撃システムなどの分野で戦場に配備されている。こうしたロボットの利用は今後、劇的に拡大していく。

■人的判断の有無で自律性に区別

 ワシントンのシンクタンク、新米国安全保障センター(CNAS)は、軍事ロボットに対する世界的な支出が2018年までに年間75億ドルに達すると試算している。これに対し、商業・工業用ロボットに対する支出は430億ドルと予想されている。CNASは「戦士たちが敵に対して決定的な優位性を得る能力」を大幅に高めることができると主張し、そうした軍事ロボットの配備拡大を支持している。

 軍事産業は、業界が愛してやまない無味乾燥な文章で、異なるレベルの自律性を区別している。

 業界が「ヒューマン・イン・ザ・ループ(人間が関与する)」と表現する最初のレベルには、米軍をはじめ多くの軍隊に使われている武装ドローン(小型無人機)「プレデター」が含まれる。ドローンは標的を特定するかもしれないが、攻撃するには、やはり人間がボタンを押す必要がある。映画「アイ・イン・ザ・スカイ」で鮮明に描かれているように、そのような決断は道義的に苦渋に満ちたものになり得る。標的を射止める重要性と民間人が犠牲になるリスクをてんびんにかけなければならないからだ。

 自律性の第2のレベルは、対空部隊を含め、ロボット化された兵器システムを人間が監督するヒューマン・イン・ザ・ループ・システムだ。だが、近代の戦争が持つスピードと激しさを考えると、そのような人間の監視が効果的なコントロールとなるのかどうか疑わしい。

 完全に自律的なドローンなど、3番目のヒューマン・アウト・オブ・ザ・ループ(人間が関与しない)型システムは、最も多くの死者を出す可能性があるが、恐らく禁止するのが最も容易だ。

 AI研究者は間違いなく、この議論に光を当てたことで称賛されるべきだ。軍縮専門家も、この課題を明確に定義し、対応するのを手助けするうえで、有益だが腰の重い役割を担っている。CNASのシニアフェロー、ポール・シャール氏は「これは貴重な対話だが、遅々として進まないプロセスだ」と話している。

 ほかの多くの分野と同じように、我々の社会は技術的に激変している現実の意味を理解するのにてこずっている。ましてや、この現実をコントロールするには及ばない。

By John Thornhill

(2016年4月26日付 英フィナンシャル・タイムズ紙)

(c) The Financial Times Limited 2016. All Rights Reserved. The Nikkei Inc. is solely responsible for providing this translated content and The Financial Times Limited does not accept any liability for the accuracy or quality of the translation.