藤野の散文-私の暗黙知-

毎日の中での気付きについて書いています

AIが判断する時代。


FTの記事より。

問題は、戦争の不透明さの中で見込まれるロボット使用にじっくり目を向けるほど、道徳的な境界線を見分けるのが難しくなることだ。
ロボット(限定的な自律性を備えたもの)はすでに、爆弾処理や地雷除去、ミサイル迎撃システムなどの分野で戦場に配備されている。こうしたロボットの利用は今後、劇的に拡大していく。

技術はその現実があまりに先鋭的で細かなために、しばしば応用分野が問題になる。
遺伝子や分子生物学の、医療への適用とか。
どんどん複雑化する「薬物と病気」の関係とか。
そして今一番ホットなのが「AIロボットと兵器の関係」だろう。

もうすでに相当なレベルでコンピューターが搭載されている。
そんな兵器が、ある時"自律"し始めた時に、初めて人は慌てているようだ。

同じ一つの爆薬を使うのに、ロボットが自律しているか否か?は
本当はどれほど問題なのだろう。

いずれ、今は人間が担っている「判断部分」はコンピューターが大部分を手がける時代が来る。
(というか、今でも相当「そう」なっている。)
けれど、ちょっと楽観的かもしれないが、こうした「技術革新の波」が轟々と押し寄せてこそ、自分たちもリアルな生活の中でそのことを考え始めるものだ。

ほかの多くの分野と同じように、我々の社会は技術的に激変している現実の意味を理解するのにてこずっている。ましてや、この現実をコントロールするには及ばない。

最初はアブなくて、使いづらくてどうにも御しようもなかったものを、「だんだんと慣らして生活の中で使いこなす」というのがロボットに対しても人間のあるべき知恵なのではないだろうか。
どんどん向こうの方が賢くなっているみたいだけど。

[FT]「殺人ロボット」が新軍拡競争を引き起こす

2016/5/2 6:30
ニュースソース
日本経済新聞 電子版
 次のような未来のシナリオを想像してほしい。米国主導の連合軍が過激派組織「イスラム国」(IS)を全滅させることを決意し、シリアの都市ラッカを包囲する。敵を追跡して市内を飛び回る自律型飛行ロボットの群れを国際部隊が解き放つ。

 ロボットは顔認識技術を使い、IS最高司令官らを特定・殺害し、組織を壊滅させる。ぼうぜんとし、士気をくじかれたISの部隊は崩壊し、連合軍の兵士と民間人の人命喪失はごく少数で済む――。

 これを技術の有効利用だと思わない人がいるだろうか。

監視用ドローンを操縦するカメルーン兵士。近隣諸国と共同で過激派組織「ボコ・ハラム」の掃討を狙う=ロイター
監視用ドローンを操縦するカメルーン兵士。近隣諸国と共同で過激派組織「ボコ・ハラム」の掃討を狙う=ロイター

 実を言えば、かなり大勢いる。そうした兵器の開発に必要な技術について最もよく知る人工知能(AI)分野の多くの専門家もそうだ。

■大量生産できる「未来のカラシニコフ

 AI研究者のあるグループは昨年7月に発表した公開書簡で、技術がかなりの水準に発達したため「自律型致死兵器システム」(不条理にも「LAWS」として知られる)の配備が、数十年の単位ではなく数年内に可能になると警告した。核兵器とは異なり、このような兵器システムは安価に大量生産でき「未来のカラシニコフ自動小銃」になるという。

 「LAWSが闇市場に登場し、テロリストや、大衆をもっと統制したいと望む独裁者、民族浄化したがっている軍閥の手に収まるのは、時間の問題でしかない」。研究者のグループはこう述べた。「軍用AIの軍拡競争を始めることは間違った考えであり、人間による有意義な制御が及ばない攻撃用の自律型兵器を禁止することで阻止すべきだ」

 すでに米国はおおむね、攻撃用の自律型兵器の不使用を決めている。国連は今月(4月)、LAWSの使用を制限する国際協定の策定を目指し、ジュネーブで再度、主要軍事国94カ国間の協議を開いた。

 主な根拠は道義的なものだ。つまり、ロボットに人間を殺す機能を持たせることは、決して越えてはならない一線を踏みつけることになる。

 地雷禁止キャンペーンでノーベル平和賞を受賞し、「殺人ロボット阻止キャンペーン」の広報を務めるジョディ・ウィリアムズ氏は、自律型兵器を、核兵器よりも恐ろしいものと形容する。「もし一部の人が、人間の生殺与奪の権利を機械に譲ってもいいと考えたとしたら、人間性は一体どこへ向かうのか」

 純粋に道義的なもの以外にも、懸念はある。殺人ロボットは戦争の人的損失を減らし、その結果として紛争の可能性を高めてしまうのではないか。そのような兵器システムの拡散を、どうやって止められるのか。何か問題が生じたら、誰が責任を負うのか。

 哲学のセミナーでは、殺人ロボットに反対するこの道義的な根拠は十分明白だ。問題は、戦争の不透明さの中で見込まれるロボット使用にじっくり目を向けるほど、道徳的な境界線を見分けるのが難しくなることだ。ロボット(限定的な自律性を備えたもの)はすでに、爆弾処理や地雷除去、ミサイル迎撃システムなどの分野で戦場に配備されている。こうしたロボットの利用は今後、劇的に拡大していく。

■人的判断の有無で自律性に区別

 ワシントンのシンクタンク、新米国安全保障センター(CNAS)は、軍事ロボットに対する世界的な支出が2018年までに年間75億ドルに達すると試算している。これに対し、商業・工業用ロボットに対する支出は430億ドルと予想されている。CNASは「戦士たちが敵に対して決定的な優位性を得る能力」を大幅に高めることができると主張し、そうした軍事ロボットの配備拡大を支持している。

 軍事産業は、業界が愛してやまない無味乾燥な文章で、異なるレベルの自律性を区別している。

 業界が「ヒューマン・イン・ザ・ループ(人間が関与する)」と表現する最初のレベルには、米軍をはじめ多くの軍隊に使われている武装ドローン(小型無人機)「プレデター」が含まれる。ドローンは標的を特定するかもしれないが、攻撃するには、やはり人間がボタンを押す必要がある。映画「アイ・イン・ザ・スカイ」で鮮明に描かれているように、そのような決断は道義的に苦渋に満ちたものになり得る。標的を射止める重要性と民間人が犠牲になるリスクをてんびんにかけなければならないからだ。

 自律性の第2のレベルは、対空部隊を含め、ロボット化された兵器システムを人間が監督するヒューマン・イン・ザ・ループ・システムだ。だが、近代の戦争が持つスピードと激しさを考えると、そのような人間の監視が効果的なコントロールとなるのかどうか疑わしい。

 完全に自律的なドローンなど、3番目のヒューマン・アウト・オブ・ザ・ループ(人間が関与しない)型システムは、最も多くの死者を出す可能性があるが、恐らく禁止するのが最も容易だ。

 AI研究者は間違いなく、この議論に光を当てたことで称賛されるべきだ。軍縮専門家も、この課題を明確に定義し、対応するのを手助けするうえで、有益だが腰の重い役割を担っている。CNASのシニアフェロー、ポール・シャール氏は「これは貴重な対話だが、遅々として進まないプロセスだ」と話している。

 ほかの多くの分野と同じように、我々の社会は技術的に激変している現実の意味を理解するのにてこずっている。ましてや、この現実をコントロールするには及ばない。

By John Thornhill

(2016年4月26日付 英フィナンシャル・タイムズ紙)

(c) The Financial Times Limited 2016. All Rights Reserved. The Nikkei Inc. is solely responsible for providing this translated content and The Financial Times Limited does not accept any liability for the accuracy or quality of the translation.