日経、朝日、読売、サンケイ、時事通信などのデジタルサイトを毎日見ている。
色々と批判されるメディアではあるれど、どのサイトも確実に質は上がってきているような気がする。
今回は読売の「人工知能で東大合格をめざす 新井紀子さん」の記事。
人工知能の今の限界や、これからの可能性や科学者の夢が綴られていて実に楽しい。
近い将来メディアの記事に単発でお金を払うシステムが出てくるのではないだろうか。
「月々4000円で当誌を購読」というのではなく、興味のある分野の記事が大量に送られてきて、良さそうだと思った記事に数十円から数百円を支払うのだ。
コンテンツ提供者の値段設定ではなく、リーダーが積極的にコンテンツを選んで、そして積極的に支払う。
NHKの受信料だって「ただみ」している視聴者と集金する側に分かれているのが現在だけど、個別のコンテンツごとに料金支払いができれば多分問題は解決するのに違いない。
いよいよメディアは特ダネを追いかけて、いち早く「マス売り」をする体質から、希少コンテンツを受け付け、発信するプラットフォームに代わってゆくのではないだろうか。
優良で、まだ取り上げられていないコンテンツはブログなどに散見されけれど、まだ一ヶ所にに集まる仕組みは弱い。
メディアの生きる道はそのあたりにあるのではないかと思う。
人工知能で東大合格をめざす 新井紀子さん(52)(1)
ターミネーターは襲って来るか?
*
人工知能(AI)がブームだ。
少なくとも世間では、そう受け止めているようだ。
たとえば、読売新聞は7月9日付朝刊文化面で、「人工知能と映画」という特集を組んだ。この夏公開された「ターミネーター」シリーズの新作「新起動/ジェニシス」のほか、「アベンジャーズ/エイジ・オブ・ウルトロン」、「チャッピー」が紹介され、各映画の中で重要な役回りを演じる人工知能について識者の意見を聞いた。
現実の世界でもここ数年、人工知能がチェスや将棋、クイズなどで次々と人間を破り去った。グーグルの自動走行車、小型無人機ドローンを使ったアマゾンの配達サービスもニュースになった(表参照)。*
果たして近い将来、人智(じんち)をはるかに越えた人工知能が完成するのだろうか。ターミネーターに出てくる「スカイネット」のような人工知能が人類に反逆し、人類を存亡の危機に陥れるのか。それは、ユートピア(理想郷)ならぬ、ディストピアだが――。
その辺の事情を確かめるべく、東京都千代田区一ツ橋にある国立情報学研究所の教授、新井紀子の研究室を訪ねた。
新井はコンピュータに大学入試問題を解かせ、東京大学合格をめざす「ロボットは東大に入れるか」のプロジェクトディレクターを務める数学者だ。ロボットと名乗ってはいるが、現在はその頭脳であるコンピュータだけで東大受験にチャレンジしている。体はまだない。
このプロジェクトになんらかの形でかかわっている研究者は100人以上。国内最大級の人工知能研究である。
新井は一橋大学で法律学を、イリノイ大学で数学を専攻した異色の経歴を持つ。その話は、事例を交えながら筋道立てて説明するからわかりやすい。インタビュー中はアニメの主人公の必殺技を身ぶり手ぶりで演じ、ジョークを連発してけらけらと笑った。そうした笑いの中に切れ味鋭い物言いを挟み込むのだが、けれん味がないから不思議だ。
さて、人工知能研究はいま、1950〜60年代、80年代に続く「第3次ブーム」と言われる。果たして、本当のところはどうなのだろう。
2015年08月10日 05時20分 Copyright © The Yomiuri Shimbun
ページ: 2
人工知能、いまだ起動せず!?
*
「確かに、これまではとても困難とされていた画像や音声などの『分類問題』がよく解けるようになりました。分類問題とは何かというと、『写真に写っている物は何ですか』という問いに対し、『イヌとタヌキとビルが写っています』と答える……あるいは、『家が写っている写真』と『家が写っていない写真』を分類する問題のことです。これを可能にしたのは、大量のデータが自動収集できるようになった『ビッグデータ』の時代に、(これまで培ってきた)『機械学習』が応用できるようになったことです」
機械学習とは、与えられた課題の正解を見つけ出すため、コンピュータ自身が学習していくプログラムのこと。従来はルールや文法をコンピュータのプログラムに書き込んで、それに基づいて正解を見つけていた。いわゆる「論理」(=演繹(えんえき))を使う手法だが、実社会は複雑で、コンピュータの杓子(しゃくし)定規な解法だけでは限界があった。
これに「統計・確率」(=帰納)を基盤とする機械学習が加わって、人工知能は一皮むけた。機械学習は物事の原因と結果を示す因果関係(論理)ではなく、データのばらつきや集まり方などから関係性を推定する相関関係(統計・確率)で判断する。その結果、問題解決の守備範囲は格段に広がったという。
新井の説明は続く。
「(人工知能研究が進歩した)もう一つの理由は、『最適化』ということ。自動車を何回も自動運転させているうちに、こういう場所では曲がった方がよい、ここではこれくらい減速した方がよいということを、うまくいったらポイントを与え、駄目だったらポイントを引いたりすることによって、自動車が上手に自動運転できるようになる。(その背景には)コンピュータの計算速度が上がったために、答えがその場でリアルタイムに、つまりコンマ何秒で出せるようになったからです」
その結果、自動走行車をはじめ、電子カルテを使った自動診断、コールセンターに電話をかけてきた顧客の質問の自動分類、AP通信社が採用した経済記事の自動生成、ゲーム理論を基にした株式のアルゴリズム取引などが可能になったという。
「でも、(実用化している人工知能は)本当言うとまだ、人工知能じゃないんです(笑)。人工知能の研究分野から生まれてきた要素技術をビジネスに生かす大企業が出てきたのが、2000年代初頭の状況。実際にそれを見ると、『こんなことまでできるようになったんだ』と思って、『こんなに賢くなったのなら、人工知能はあと10年でできるんじゃないか』とか、『シンギュラリティ=技術的特異点』(人工知能が自分自身より賢い人工知能をつくることができるようになった瞬間のこと)がやって来て、人工知能が勝手に発達していくんじゃないかといった議論がここ1、2年で出てきているのかな、と受け止めています。でもそれは、研究上いくつかのエポック・メーキングな出来事があったために、それらがつなぎ合わされて生まれた臆測です!(笑)」
2015年08月10日 05時20分 Copyright © The Yomiuri Shimbun
ページ: 3
ビッグデータの可能性と限界
*
そうであるなら、コンピュータは人間の脳と同等にはなれないのか。真の意味での人工知能実現の前に立ちふさがっている壁のひとつが、私たちが普通に話したり、書いたり、読んだりしている言葉(自然言語)だ。コンピュータは、この分野が大の苦手なのだそうだ。
いやいや、スマートフォンの質問応答システム「Siri」や「しゃべってコンシェル」があるじゃないかという反論があるかもしれない。最近はカーナビゲーションにも同様の機能が搭載されている、と。
東大入試に挑んでいる新井は、こうしたサービスが扱う自然言語と入試に出てくるような自然言語が根源的に違っていることを説明し始めた。
「Siriやカーナビで質問する内容は『フレーム』(枠組み)が決まってしまうわけですね。車でしたいことは、『駐車場、探して』とか『近所においしいレストランない?』とか「どっかトイレ、ない?」とか(笑)……そういうことをカーナビに聞くわけです。携帯電話なら、『電車の乗り換えは何分?』とか『何番プラットホーム?』とか聞く。聞くことはだいたい決まっていて、今ここで話しているような内容について携帯電話を相手に話をしようなんて思っていないわけですよね。こういう限定的な自然言語の理解なら『分類問題』でできてしまうんです」
携帯などの質問応答システムは、ある質問が来たら、こう答えるのが統計的に確からしいという答えを膨大なデータから見つけ、返す仕組みだ。新井は著書「コンピュータが仕事を奪う」(日本経済新聞出版社)で、「Yahoo!翻訳」と「Google翻訳」のアプローチの違い、そして自然言語理解の難しさを説明している。
「Yahoo!翻訳」は、文法に則(のっと)って日本語を他言語に翻訳する。演繹的手法だ。これに対して、「Google翻訳」は文法を持たず、膨大な量の文章とその翻訳をコンピュータに入力し、統計的に正しそうな訳を出力する。こちらは帰納的手法といえる。
試しに以下の文章を両方に入力して、翻訳してみる。
【原文】ターミネーターに出てくる「スカイネット」のような人工知能が人類に反逆し、人類を存亡の危機に陥れるのか。
【Yahoo!翻訳】
The artificial intelligence such as "sky net" coming out to a terminator revolts against the human, and do you plunge the human into a crisis of the life and death?
【Google翻訳】
Artificial intelligence, such as "Sky Net" to come out to the terminator is treason to humanity, and whether the plunge mankind into a fateful crisis.
結果はどっちもどっちで、落第点だ。
2015年08月10日 05時20分 Copyright © The Yomiuri Shimbun
ページ: 4
ビッグデータが集まらない!? まず、両方とも文全体が疑問文になっていない。また、「出てくる」を両方とも「come out to」と誤訳しており、元の日本語がまずかったかと反省したほどだ。冠詞や固有名詞、その他の動詞の使い方にもそれぞれ問題点がある。
なかでも致命的なのが、「Yahoo!翻訳」では人類の存亡の危機をもたらす主語が「あなた」になっていること。「Google翻訳」は後段の部分が支離滅裂だ。
簡単な文章なら割と正解するのだが、少し複雑になると、途端に誤訳し始める。それぞれ一長一短あるものの、これらを使って英語の宿題をやると、間違いなく減点される。
ビッグデータの限界については、新井の話がさらに続く。
「たとえば『危機』の時……子供が車の前に飛び出してきて『ワッ!』と叫んだり、車外に見える土手から落石しそうだったり、車の中に変なニオイがしてきたとか……。こうしたカーナビが想定していない物は、ビッグデータの中にもめったにはない。そういう時に発する『あっ!!』というのは何が『あっ!!』なのか(コンピュータには)分からない。『あっ、危ない』と言った時、何が危ないのかも分からない。まあ、(声を発した人の)視線の先を見ると、石があるけれど、その石がなぜ危ないのか、人工知能なら分からなくてはならないわけですね。石がゆらゆらしているとか、土砂から水が流れているとかが分かって初めて、土砂崩れするかもしれないと思う。でも、それって物理ですよね」
つまり、石があって水が流れていれば、土砂崩れの蓋然性が高いと判断する。あの石が落ちてきたら軌道はこうなるだろうから、それを避けて車を止めなくてはいけないということだ。
「それは分類問題では解けないんですよ。女性同士のおしゃべりや緊急時の会話などになると、ビッグデータがそもそも集まらない。問題解決を求められている分野の中で、ビッグデータが集まらない分野の方が圧倒的に多いんです。自然言語の理解というのは、そういうこと。ビッグデータが集まらないので、機械学習ができないんですよ」
では、逆にビッグデータの応用分野はどんなところなのだろう。世の中では最近、猫も杓子も「ビッグデータ」と騒いでいるが……。
「機械学習っていつでも使えるわけではなくて、同じタイプの大量のデータがないと無理なんです。たとえば、(写真をほぼ無制限に保存できる無料のサービスの)『Google Photo』のように画像がたくさん集まっているとか、監視カメラのように同じ場所を写し続けている状態があって、『この人』を探すというのはできる。また、電子カルテが毎日集まっている病院で、いろんな(疾患にまつわる)キーワードが出てきて、検査結果があると、こういう疾患を疑ってよいと推定することはできる。しかし、そのことがシンギュラリティとか、(コンピュータが物事や言葉の)概念を獲得するといったことにはならないんです」
次回は、なんと「オレオレ詐欺」みたいだという人工知能のサービスと人間側の受け止め方、人工知能研究を牽引(けんいん)する米国の現状、日米の戦略の違いを聞く。
(敬称略、文:メディア局編集部 小川祐二朗、写真:高梨義之)
■新井紀子プロフィル
東京生まれ。一橋大学法学部卒。イリノイ大学数学科博士課程修了。理学博士。2005年より学校向け情報共有基盤システムNetCommonsをオープンソースとして公開。全国の学校のホームページやグループウェアとして活用されている。11年から人工知能分野のグランドチャレンジ「ロボットは東大に入れるか」のプロジェクトディレクターを務める。ナイスステップな研究者、科学技術分野の文部科学大臣表彰などを受賞。著書に「数学にときめく」(講談社ブルーバックス)、「コンピュータが仕事を奪う」(日本経済新聞出版社)、「ロボットは東大に入れるか」(イースト・プレス)など多数。
2015年08月10日 05時20分 Copyright © The Yomiuri Shimbun