藤野の散文-私の暗黙知-

毎日の中での気付きについて書いています

案外それない方向性。

素直に考えれば、人工知能が今の自分たちの「考えられる範囲」をはるかに超えて「ある種の演算をする」ということはほぼ確実だ。

ものすごく複雑な心理判断はともかくとして、「普通の思考」の範囲では「道具としての人工知能」がどんどん便利になるだろう。

スティーヴン・ホーキング博士曰く、
「私たちの将来は技術の新興勢力と技術を利用する知恵の争いになる」

つまり便利な、より賢い道具を発明した人間自身が使いこなせるか、というまあ普遍的なテーマがこれからも繰り返されることになる。

イーロン・マスク氏は「人類が高度な人工知能を生み出すきっかけとなるブートローダーにならないことを望むが、その運命をたどる可能性は高い」

技術が徹底的に「人の道具」とできているうちはいい。
「道具」が「意志」を持ち始めたらどうだろうか。

本当の生命ではないにせよ、「似たような思考判断を下せる」コンピューターができつつある。

「判断できる存在」が大きくなっていけば、そのうち「人間の振る舞い」だって判断のケースに必ず入ってくる。

果たして、次世代の「判断脳」は今の人類をどのように眺め、把握するのだろうか。
自然に考えれば、地球の表面の「カビ」とか「微生物」程度にしか考えないのではないだろうか。

地球という系で考えたり、また太陽系とかいう単位で考えたりした時に、自分たちがどれほど「主体」で居られるかを自分たちは経験したことがない。

人工知能の恐ろしさはそんなところにあるのではないだろうか。

人工知能核兵器よりも潜在的に危険、ホーキング博士が「100年以内に人工知能は人間を超える」と警告
2015年5月にロンドンで開催された「Zeitgeist 2015」のカンファレンスで、スティーヴン・ホーキング博士が、人工知能が大きく向上しコントロールできなくならないために人類がすべきことを語りました。ホーキング博士は2014年にBBC Newsのインタビューに対しても「人工知能の進化は人類の終焉を意味する」と発言しており、人工知能開発に対して警鐘を鳴らしています。

FLI - Future of Life Institute
http://futureoflife.org/misc/open_letter

Stephen Hawking warns computers will overtake humans within 100 years | Operating Systems | Techworld
http://www.techworld.com/news/operating-systems/stephen-hawking-warns-computers-will-overtake-humans-within-100-years-3611397/

What Experts Think About the Existential Risks of Artificial Intelligence
http://www.theepochtimes.com/n3/1366189-what-ai-experts-think-about-the-existential-risk-of-ai/

2015年1月にイーロン・マスク氏、ビル・ゲイツ氏、スティーヴン・ホーキング博士、および学者や研究者などが、人工知能を扱う産業の安全基準に対する公開状を書き、人工知能の誤動作によって人間に危険が及ぶのを防ぐため、いつでも人工知能を安全に制御できるフェールセーフのシステムを開発研究すべきだと要求しました。

人工知能の研究は一時下火になっていたものの、IBMが人間のように自ら学習・思考・分析を行う人工知能「ワトソン」の医療関連での開発をしたことから、再び注目され始めました。人工知能は世界に非常に大きな影響力を持ち、GoogleFacebookなどのグローバルなテクノロジーの企業によって開発が進められ、Appleが開発しているiPhoneiPadに搭載されている音声認識アシスタント「Siri」や、Googleの自動運転システムなどに人工知能がすでに使用されています。Financial Timesによると、シリコンバレーにある150のスタートアップは人工知能を開発しているとのこと。

2014年にオックスフォード大学の研究者であるヴィンセント・ミュラー氏とニック・ボストロム氏が行った人工知能についての調査によると、170人の研究者の内18%が「今後人工知能は人間の存在を脅かす可能性が十分にある」と答え、13%が「今後人工知能が人間にとって不利益になる」と回答しています。また、ほとんどの研究者は、人工知能が人間の知能を超えることは避けられないと考えているとのこと。

イーロン・マスク氏は2014年にTwitterで、「人工知能核兵器よりも潜在的な危険をはらむため、我々は細心の注意を払う必要がある」とつぶやいています。

また、イーロン・マスク氏は「人類が高度な人工知能を生み出すきっかけとなるブートローダーにならないことを望むが、その運命をたどる可能性は高い」ともつぶやいていました。

2015年5月にロンドンで開催された「Zeitgeist 2015」のカンファレンスで、ホーキング博士は今後100年以内に人工知能が人間を超えるだろうと警告しました。人工知能が人類を超えるとき、人工知能に人類と協力する目的を持たせるべき必要があり、また人工知能の開発は人類がコントロールできるように進めるべきだ、とホーキング博士は考えています。加えて、私たちの将来は技術の新興勢力と技術を利用する知恵の争いになる、とホーキング博士は語りました。

オックスフォード大学の人工知能のエキスパートであるニック氏は、人工知能が人間の知的レベルに達した後に、短期間で更に知的レベルが上がるだろうと指摘しています。短期的には「誰が人工知能をコントロールするかが問題」となりますが、長期的に見れば「人工知能をコントロールできるかどうか自体が問題」になるとホーキング博士は考えており、科学者と技術者が人間のコントロールを超えない人工知能の調整を行う必要があるとのことです。