藤野の散文-私の暗黙知-

毎日の中での気付きについて書いています

プロファイリングは問題か。

少し前、コンピュータ操作の苦手な人は「デジタル難民」などと言われ、焦っていたおじさまたちも多かった。

今度は「バーチャル・スラム」が問題になるという。

個人がデジタル世界でプロファイリングされ、抽象化されて「本人の意図によらず」にひょっとしたら「ハズレ組」に分類されているかもしれない。
慶大の山本教授は言う。

「『その人らしさ』は、本来、人工知能によって解析し尽くせるものではありません。しかし、両者が短絡的に結びつけられることが増えてくる。これは、個人の事情を概括化、抽象化せず、一人ひとりの人格を尊重するという個人の尊厳原理を危険にさらします。憲法の基本原則でもあるこの原理を貫徹するためにも、個人に関する重要な判断は最終的に人間が責任をもつことや、プロファイリング結果に異議を申し立てる権利は重要です」

ただここで思う。
自分たちは結構こういう「プロファイリング」とか「バイアス」を元来使ってきた。
仕事をするにも人付き合いをするにも家族や親戚だって「ある種のプロファイリングはつきものではなかったか。
セレブ御用達の私立校とか、超大手企業には「一定のプロフィール」がなければ門前払いになるのは公然の秘密だった。

「デジタルに任せる」ということになると、自分たちは途端にその責任論とか弊害をあげつらうけれど、実は「デジタル」はそれを浮き彫りにしているだけで、これまで「人がしていることだから」とむしろ問題の本質に頰被りしてきたということではないだろうか。

特に記事が問題にしている「人材適正」の分野については、未だに「個人の適性と仕事の質」について決定的な回答のない分野である。
これまではキャリアの長い人間がむしろ「個人の経験と勘」を頼りにしていた分野にこそ、ビッグデータやAIが生きてくる。

ITが問題なのではなく、ようやく「これまで見過ごされてきた、人の勘だけが頼りの分野」をこれからITがどんどん詳らかにしていく時代になるのだ。

磨けばピカピカに光るダイヤの原石って、通常の選考方法ではまず見つからないものだ。

(インタビュー)ビッグデータと私 慶応大学教授・山本龍彦さん

2016年6月1日05時00分

 大量のデータをあまねく高速で分析するビッグデータ時代である。個人の情報を集め、一人ひとりの好みや習慣だけでなく、未来の行動や適性、可能性まで予測することが可能になった。豊かさや便利さにつながる半面、個人の尊厳や、民主主義の土台を脅かしかねない面もあることに、いよいよ目を向けねばならなそうだ。

 ――ビッグデータ時代と言われますが何が起きているのですか。

 「アマゾンで買い物をすると、画面に『おすすめ商品』が表示されます。特定のユーザーを対象にしたターゲティング広告の一つで、購買や閲覧の履歴からコンピューターがその人の好みを自動処理で確率的に判断しているのです。自動処理する際の『計算方法』をアルゴリズムと言いますが、この予測の技術が広い範囲で使われているのが特徴です」

 ――企業には、関心のある顧客に絞って広告を見せ、広告効果を上げられる利点がありますね。

 「その通りですが、プライバシーや個人の尊厳に関する新たな問題が生じてきています」

 ――どういうことですか。

 「米国では、小売業者『ターゲット社』が、顧客の購入歴から妊娠の可能性や出産日を予測していたことが明るみに出ました。自社のアルゴリズム解析から、例えば無香料ローション、特定サプリメント、大きめのバッグのいずれの購入歴もある人は妊娠している可能性が高いとし、顧客にベビー服などのクーポンを送っていたのです。相手先がたまたま女子高校生で、娘の妊娠を知らない父親が驚いて、問題が発覚しました」

 「データベースに蓄積されたある人物のデータをコンピューター解析し、その人を評価・判断することをプロファイリングといいます。妊娠というセンシティブで秘匿性の高い情報をこの技術を使って把握することは、プライバシーの観点から問題です。それでも、商業広告であれば許容できる場合もありますが、企業の採用活動や住宅ローン、教育などの分野でプロファイリングをすると深刻な問題を引き起こします」

 ――どんな問題ですか。

 「ある女性が大学4年で希望する企業への就職に失敗し、ファストフード店でアルバイトをして翌年就職に再チャレンジしたとします。人工知能の解析にかけると、就職の失敗は『雇用されるにふさわしい能力』のスコアを下げ、アルバイトの経験も低賃金の職と推論されて、さらにスコアを押し下げるかもしれません。プロファイリングで、労働者としての適性が乏しいと判断されるわけです」

 「彼女が努力して成長、変化する可能性や、彼女を取り巻く具体的文脈などが捨象され、その能力がただ確率的に判断されているのですが、ビッグデータを基礎にしているだけに、正確な人物評価として科学的な説得力をもってしまう。人事部社員の勘より信頼できる、と」

 「SNS上で過去に公開した情報など労働者の適性に関連しないような行動の記録も併せて解析され、『能力の低い労働者』と評価されると、それが彼女に関する『真実』とみなされ、その後の人生にずっとつきまとう。人生の重要なポイントで個人の能力の判断を人工知能にゆだねることで、一人ひとりの人生を運命づけ、はい上がれなくなるリスクが生まれてしまいます。『バーチャルスラム』の形成です」

 ――初めて聞く言葉です。

 「『確率という名の牢獄』と呼ぶ学者もいます。人工知能も誤りうるのに、予測技術の向上により確率は飛躍的に高まるので、企業などは、経済的合理性を理由に人工知能の予測を積極的に使うようになるでしょう。そのことで、確率的な判断によるスティグマ(烙印〈らくいん〉)といった問題が生じる」

 「しかも、プロファイリングに使われる個人の属性や、アルゴリズムの内実が企業秘密になっていると、なぜ自分が不採用となるのか、排除され続けるのかわからない。カフカ的な不条理な世界に追い込まれます。米国のFTC(連邦取引委員会)が1月に公表した『ビッグデータ』という報告書のサブタイトルは『包摂の道具か、排除の道具か?』でした。ビッグデータの『利活用』が差別や排除につながるのではないか、という危機感が強く表れています」

 ――個人情報の漏洩(ろうえい)をどう防ぐかとは質の異なる問題が顕在化しているのですね。

 「漏洩は、人工知能アルゴリズムが高度に発展する以前からあった古典的な問題です。これも重要な論点ですが、米国や欧州連合(EU)では、プロファイリングの公正さや利用範囲の問題が、積極的に語られ出しています」

 ――具体的な規制の動きは出ているのでしょうか。

 「個人情報を取り扱うEUの『一般データ保護規則』にプロファイリングに関する規定が20ほど入り、欧州議会本会議で4月に可決されました。施行は2018年ですが、例えば、企業の採用活動や借り入れなど個人の人生に重要な影響を与えるような事柄について、自動処理のみによって判断されない権利が認められました。人間の介入を得る権利や、プロファイリングの結果に異議を申し立てる権利も組み込まれました」

 「これらは、『あなたはこういう人間ですね』という人工知能の確率的な判断に対抗するための権利といえます。『そんなの私じゃない!』という叫びを権利化したといってもいい」

 ――人工知能に対し、個人一人ひとりの尊厳をいかに守るかが問われているのですね。

 「『その人らしさ』は、本来、人工知能によって解析し尽くせるものではありません。しかし、両者が短絡的に結びつけられることが増えてくる。これは、個人の事情を概括化、抽象化せず、一人ひとりの人格を尊重するという個人の尊厳原理を危険にさらします。憲法の基本原則でもあるこの原理を貫徹するためにも、個人に関する重要な判断は最終的に人間が責任をもつことや、プロファイリング結果に異議を申し立てる権利は重要です」

 ――社会のあり方にも影響を与えそうですね。

 「民主主義の行方にも関係します。例えば、政治的に偏った思想を持っていると予測されたくない人が、検索履歴情報を取られないよう政治的なテーマをネット検索することを避けようとするかもしれない。こうした萎縮効果は、民主主義の維持に不可欠な批判的な言論をくじくことになります」

 「プロファイリングによって予測された趣味嗜好(しこう)にあった情報のみがサイトに送られ、個人が自分好みの情報に囲まれることを『フィルターバブル』と呼ぶこともあります。これは快適である半面、自分と異なる『他者』の見解に触れずに生きていくという状況を生み出します。民主主義には『他者』との対話を通して議論が生まれ、国家の意思形成に結びつく側面があります。偶然的な出会いがなくなることは、異なる他者と対話ができないか、出会いがあっても鋭い対立になりがちです。フィルターバブルは民主主義そのものに深刻な影響を与えかねません」

 ――個人情報保護法制をめぐる国内の議論ではプロファイリングが本丸にもかかわらず欠落してきたと、発言されてきました。

 「日本では個人情報の漏洩や第三者提供の問題ばかりに議論が集中し、本質的な側面が見えなくなっている気がします。改正法では、人種や信条、病歴など差別や偏見を誘発しかねない情報を『要配慮個人情報』と定義し、取得の際に原則として本人同意をとることをルール化しました。しかし、実際には、米国のターゲット社のように関連情報のプロファイリングによって、妊娠というセンシティブ情報を『取得』することは可能です。改正法では、こうした要配慮個人情報の迂回(うかい)的な取得に対処しきれません」

 ――政府は改正法の目的の一つに、個人情報の「利活用」を強調しています。

 「もちろん、個人にかかわるビッグデータをビジネスに活用し、人々の暮らしの利便性が上がることはよいことです。一方、人工知能によって個人が確率で判断される社会でよいのかという本質的な問題がある。踏み込んではいけない個人の尊厳にかかわる領域があることを考えながら、議論を発展させるべきです。個人情報保護法制の問題を、セキュリティーなど個人情報保護だけの問題に矮小(わいしょう)化すべきではありません。それを超える問題にどう向き合うかが、根源的に問われているのです」

 やまもとたつひこ 1976年生まれ。専門は憲法学で、現代のプライバシー権をめぐる問題に詳しい。著書に「憲法1 人権」「遺伝情報の法理論」などがある。

 ■取材を終えて

 人工知能が先日、囲碁で世界最強の棋士の一人との対局を4勝1敗で制した。人工知能と歩む未来はバラ色か暗黒か、様々な議論がある。ただ、私たちはすでに、使い方次第で「人間の尊厳」が奪われかねない社会を生きている。リスクをいかに回避するのか、山本さんが言う本質的議論を始めることが次世代への責任でもある。(編集委員・豊秀一)