藤野の散文-私の暗黙知-

毎日の中での気付きについて書いています

今再び人間とは。

人工知能がいよいよ人の仕事を奪うらしい、とかディープラーニングで人を超えたことを判断できるらしい、という話題がまことしやかに流れるようになったのは最近だ。
それだけ「得体の知れない脅威」が間近に迫った、と捉えることができるが、現実には人の作ったコンピューターが人を超える、というのはしばらく先にも起こるのかどうか…という気がする。

SFの世界というのは、常にこうした議論の遥か先を行っているわけで、そういう意味では大いに参考になる。
自分もIT業界に入って間もなく「次世代コンピューター」とか「エキスパートシステム」という言葉を聞かされて驚いたものだが、結果は記事にある通りだった。

シンギュラリティー(技術的特異点)仮説は、ついにある時期からは「人の判断を超える」という仮説だけれど、人間的な「一か八かの判断業務」におびえるよりも、もっと日常的なところで自分たちの仕事はコンピューターによって自動化されていることを重視すべきだろう。

「直感」とか「論理矛盾」とか「感情」とか。
人は矛盾の産物だ。
今も自分たちはその「矛盾」に日々悩んでいる。

偏差値や計算や統計で分かっていることは、それほどの驚きではない。

コンピューターやAIの登場によって、人は再び「人らしさって何か」ということを自身で考え直す機会を得ているのかもしれない。
機械が人になることの恐ろしさを心配するよりも、自分たちの生き方や方向性を改めて考えてみるべきではないだろうか。

人工知能の光と影(下)「人間の脳を超越」あり得ず 機械知より生命知に強み 西垣通東京経済大学教授
 囲碁の名人を米グーグルの人工知能(AI)「アルファ碁」が破ったことで、AIに対する世間の期待は高まる一方だ。人間はチェスや将棋ではもう歯が立たない。組み合わせ数が膨大な囲碁は最後の牙城だったが、ついにこれも攻め落とされてしまった。

 それだけではない。AIが大学入試問題を解く能力も年々上がっている。近々、外国語の翻訳もスマートフォンが自動的にしてくれるらしい。「コンピューターが人間より頭が良くなるのは、もう時間の問題だ」という確信に満ちた声も聞こえてくる。

 だが、そうなると困ることもある。ホワイトカラーの仕事が奪われるかもしれない。やがて国内労働人口の約半分の仕事がAIに代替されるという調査報告も昨年発表された。未来のAI社会は一体、幸福なのか、不幸なのか……。

 言っておこう。こうした期待や心配は大きな誤解に基づいている。囲碁や将棋のAIソフトはすべて人間がつくったものだ。つまり普通の人間でもコンピューターの力を借りれば天才を負かせるというだけの話だ。百科事典を丸ごと記憶しているコンピューターが入試用の暗記問題を解いたところで驚くことはない。

 とうの昔から、機械の能力は部分的には人間をしのいでいる。だが自動車とマラソンをして負けたからといって、騒ぐ人がいるだろうか。「頭が良い」とは本当はどういうことなのか、きちんと考えてみなければならない。

 ただし、世間の大騒ぎにはそれなりの理由がある。2010年代後半に入って、AIが新たな産業革命を起こし、近未来社会を変えるという議論が専門家の間で急速に盛り上がってきた。

 グーグル、米マイクロソフト、米IBMなどの企業は既に巨大な研究プロジェクトに着手している。日本でも今年4月に政府主導で人工知能技術戦略会議がつくられ、産官学一体となってAI研究を進めるという。そこでは膨大な経済効果が見込まれている。とはいえ成果を上げるためには欧米の後追いより、まず機械と人間の知に対する深い考察が不可欠ではないか。

 現在のAIブームは第3次だ(表参照)。第1次は1950年代、第2次は80年代で、ともに期待外れに終わった。とりわけ日本が80年代に開発した第5世代コンピューターは、500億円以上の予算をつぎ込んだあげく失敗したプロジェクトとして知られる。その反省から始めないと、同じ轍(てつ)を踏むだろう。

 コンピューターは論理機械だ。正確な論理操作をすれば、答えが誤ることはない。だからこそ優れた「人工の知能」に値するというのが第1次AIブームの時の発想だった。だが純粋な論理操作だけで解決できる問題は、簡単なゲームやパズルくらいしかない。

 この挫折から、多くの「知識」をメモリーに蓄積しておき、それらを組み合わせて推論するという発想が出てきた。これが第2次AIブームだ。例えば医学知識をデータベースに貯蔵し、患者の検査データと組み合わせて病名を診断しようというわけだ。医者のような人間のエキスパートの代わりをAIが務めるので「エキスパートシステム」という名がついた。

 この第2次AIブームはなぜ衰退したのか。知識の活用で応用範囲は広がったが、答えの精度が落ちる恐れが出てきたからだ。人間の知識は正確無比とは限らない。検査データと病名を結ぶ医学知識にも曖昧さはあり、だから誤診が生まれるのである。人間のエキスパートは何とか直観を働かせるが、AIには無理であり、そこに挫折を招く根本的問題があった。

 日本の第5世代コンピューターの失敗の原因は、この難問から目をそむけ、ただ推論操作の高速化だけに取り組んだ点にあったのである。

 第3次AIブームを起こしたのは「深層学習」という技術だ。画像や音声などのパターン認識は昔からコンピューターの苦手な分野だったが、深層学習はここに画期的なブレークスルー(技術突破)をもたらした。従来のパターン認識では通常、人間が外部から、パターンの特徴を機械に与える。だが深層学習を用いるAIは、自分で特徴を抽出してしまうのだ。

 有名な「グーグルの猫認識」は、動画投稿サイト「ユーチューブ」の1千万の動画から自動的に猫の画像を取り出してみせた。さらに深層学習のプログラムは、脳神経に似た構造を持っている。こうして「人間の脳に近い機能を持つAIが誕生し、自分で概念を把握できる」という思い込みが生まれてしまったのだ。

 専門家でもこうした思い込みを述べる者がいるが、これは完全な誤りだ。深層学習は優れた技術だが、あくまでパターン認識において有用であるにすぎない。実際に行っているのはビッグデータの統計処理であり、人間の脳における社会的・言語的な概念の処理と直接関係づけるのは困難だ。例えば自由とか国家といった概念を、統計処理のみから導き出すことなど不可能だろう。さらに統計処理はデータ群の全体的特性を抽出することはできるが、個別のケースでは間違える場合もある。

 この点は重要だ。AIは論理的正確さが売り物だが、深層学習では誤りの可能性を排除できない。具体的にいうと、AIが猫か犬か分からない奇妙な動物の画像を「認識」してしまう場合もある。深層学習の応用の現場では、AIが行った分類を、人間の概念分類に合致させるチューニング(調整)作業にかなりの手間がかかる。

 以上のように、深層学習を駆使したAIは万能ではないし、決して何でもできる汎用機械ではない。アルファ碁ができるのは囲碁だけで、投資相談も無理だし、経済学の論文も書けない。にもかかわらず「近い将来、人間より賢い汎用AIが登場する」などと、自信たっぷりに述べる議論が出てくるのはなぜだろうか。

 AIが2045年に人間の脳を上回るという「シンギュラリティー(技術的特異点)仮説」は、そうした妄想の典型だ。これは米国の発明家レイ・カーツワイル氏が主張している仮説で、約30年後にコンピューターが自我を持ち、人間の代わりに知的作業をこなしてくれるという。一方、これは機械による人間の支配であり、阻止すべきだという論者もいる。

 だがシンギュラリティー仮説や汎用AIなどは、西洋の宗教的伝統を背景とするものだ。神の論理は絶対であり、理想的なAIはそれに近づけるというわけだ。われわれ日本人が、そういう伝統に追従する必要はない。研究予算獲得のために欧米のまねをしても、大した成果は望めない。

 人間は論理機械でなく多細胞生物だ。だから人間の思考は論理矛盾を含んでいることも多いし、身体的な直観に支えられている。AIという機械知は過去のデータに基づくので、安定状態での作業効率は良くても、全く新しい環境条件には対応できない。生物は激変する地球環境の中で生き抜いてきた。この柔軟性こそ生命知の本質ではないか。

 よって大切なのは、自我を持つ汎用AIといった幻を追わず、実用的な専用AIの精錬にまい進することだ。応用分野は自動運転、農業、スマート工場など数多い。目ざすべきはAIではなく、「IA」つまり人知(インテリジェンス)の増幅器アンプリファイアー)なのである。

○過去のAIブーム失敗の反省から始めよ

○深層学習でも調整作業に相当の手間必要

○AIよりもIA(人知の増幅器)をめざせ

 にしがき・とおる 48年生まれ。東京大工学博士。専門は情報学。東大名誉教授