読書尚友

先人の叡智を自分の行動に落とし込んで、成長と成果に変えていくブログ。焼きたてのトーストにバターを塗るように、日々の学びを薄く薄く伸ばして染み込ませてゆく

自分の意思を操作される世界とは? 『おそろしいビッグデータ  超類型化AI社会のリスク』 山本龍彦 著

今日の読書日記は『おそろしいビッグデータ  超類型化AI社会のリスク』から、自分の意思を操作される世界について。

 

 

個別化広告は心理学的に重大な帰結をもたらし、 個人の「自意識(self-perception)」自体に 影響与えることを明らかにしたオハイオ州立大学の 実験が興味深い 

 

(2016年4月にハーバード・ビジネス・レビュウに 投稿された論文のタイトルは、まさに、 「個別化広告は、たんにあなたの購買意欲を かきたてるだけでないーーそれらはあなたが あなた自身をどう考えるのかを変えられる」であった)。 

 

この実験によれば、被験者となった大学生は、 自分のオンライン上の行動の結果として送られてくる 個別化広告をーーそれが本当に自分とマッチ しているかどうかにかかわらずーー 「自己の反映(reflection of the self)」として 認識する傾向があると言う。 

 

個別化広告が示す特性を、 「もともと自分が持っていた特性」 であると認識するというのである。 

 

 

例えば、被験者のために「個別化」された広告 として、環境保護的なメッセージを含む広告を 受け取った被験者は、自分自身を環境保護に熱心な 人間であったと評価付けし、その後、環境に やさしい商品を購入する傾向、環境保護に向けた 事前活動に献金する傾向が高まったと報告されている。 

 

 

ビックデータが仮構した「わ'たし」に「わたし」が 引き寄せられ、振り付けられるというイメージ。 

 

私たちは、しばしば物まねされる芸能人(=本人)が、 物まね芸人の方に引っ張られると言う残酷な光景を 目にするが、それがより深いレベルで起きているようなものだろう。 

 

この実験は、ビックデータに基づく個別化広告が、 少なくとも個人の意思形成に直接的な働きかけを 行っている可能性を証明しているように思われる。 

 

 

 

〈今日のコンテンツ〉 

----------------------------------- 

1. この本はどんな本か? 

2. バーチャル・スラムとフィルター・バブル 

3. 人生の絵筆を持つ 

4. まとめ 

----------------------------------- 


1. この本はどんな本か? 


ここ数年、世間でもてはやされているビッグ 
データの利活用に対する 


「負の側面」 


に焦点を当てて、私たちに警鐘を鳴らして 
くれている本です。 



ビッグデータを活用する目的は 


「予測(prediction)」 


と 


「個別化(personalization)」 


だと言います。 


大量のデータを集めて、分析することで、 
人間では発見できないような相関関係を 
見出して、課題解決に役立てていこうとするものです。 


例えばマーケティングにおいては、ネットショップでの 
購買履歴などのビッグデータから、 


ユーザーの嗜好を分析することで、同じような商品を 
購入したユーザーが好みそうな別の商品の広告や 
DMなどを送信することができます。 


また、医療においては、生活習慣と健康状態の 
ビッグデータを紐づけて分析することで、 


「Aという習慣を持つ人はBという病気にかかりやすい」 


といったことが分かります。 


すると、病気にならないための方法を知ることが 
できて、予防医療や医療費の削減に役立つでしょう。 


このように非常に「有用に思われる」ビッグデータの 
活用ですが、気を付けないといけない点もあります。 


それは、ビッグデータが教えてくれる 


「私たち一人一人に最適化された」 


情報は、実は 


「似たような属性を持つ集団」 


の情報を当てはめたもの過ぎない、ということです。 


本当に私たち個人に配慮してくれたアドバイス 
ではない、ということです。 


そして、ビッグデータが持つ、「個人」ではなく 


「似たような属性を持つ集団」 


に対して押し付けられた分析結果である、という 
性質が、今後、新たな差別や社会的排除を助長すると 
述べられています。 


まずは、ビッグデータとはそのような 


「諸刃の剣」 


であることを知っておくこと。その上で、私たちは 
どのように考え、振るまっていけば良いのかについて 
本書には書かれています。 



2. バーチャル・スラムとフィルター・バブル 


さて、本書では上に述べたビッグデータが引き起こす 
新たな差別や社会的排除を示す2つのキーワードが 
登場しています。 


1つ目のキーワードは 


「バーチャル・スラム」 


と呼ばれるものです。 


これは人工知能の確率的な判断によって、一度 


「ダメな奴」 


だというレッテルを張られてしまうと、一生、 


「確率という名の牢獄」 


の中で暮らさなければならなくなる。社会的に 
排除された人たちが、仮想空間上でスラムを形成する、 
というものです。 


例えば、中国のアリババという会社が導入しているのは、 
ユーザーの支払い履歴や資産状況、交友関係などを 


ベースに算出された「信用力スコア」というものです。 


このスコアの値の大小によって、住居の賃貸や 
融資の受けやすさ、ビザの取得などに格差が 
発生するといいます。 


クレジットカード会社などでは「未払い」や 
「滞納」などの記録が会社間で共有されて、 


一度「ブラックリスト」に載ってしまうと、 
最終的にはクレジットカードを発行することも 
できなくなる、と聞いたことがあります。 


それが、今後は、お金の話だけでなく、 
もっと幅広い分野で「共有」されてしまうイメージですね。 



これの怖いところは 


「やり直し」 


が困難になるだろうということです。 


例えば就職活動に失敗してアルバイト生活を 
数年続けた人がいると仮定したとします。 


その人の「職歴」が企業間で共有され、人工知能が 
ビッグデータで「似たような属性を持つ集団」の 


傾向を当てはめて「この人はダメ」と判定した 
(そしてその結果も企業間で共有される)とすると、 


どれだけやる気や能力が高い人であっても、 
就職に限らない様々な場面で不利益を被ることに 
なるでしょう。 


「自分が当てはまるとは限らない集団の属性」 


に 


「当てはめられてしまう」 


ことで、社会的に個人が抹殺されてしまう。 
そういうことがこれからは起こり得る、ということです。 


「失敗のできない社会」、「再起が難しい社会」 


というのは考えるだけで息苦しいですし、何かの 
新しい行動を始めるにしても委縮してしまいます。 


ですから、このような社会にしないために 
ビッグデータや人工知能が導き出した 


「結論」に対して「No!」と言える社会や法律などの 
制度を作っていかないといけないでしょう。 


また、2つ目のキーワードは 


「フィルター・バブル」 


と呼ばれるものです。こちらはどういうものかと言うと、 
人工知能がビッグデータを分析して、インターネット上で 


自分の好みにカスタマイズされた情報ばかりを 
届けてくれる、そのような状況が進むと、 
自分が好まない情報に触れる機会が激減します。 


そして、他者との意見が全く合わなくなり、 
最終的には社会の政治的な分断が起こる 
というものです。 


(自分用のフィルターを通された情報の「泡」の 
 中に個人個人が閉じ込められてしまう、という 
 イメージ)。 


これは本書では、「民主主義の危機」だと 
捉えられています。 


もう少し具体的には、同じような考えを持つ 
人間だけが集まって議論すると、その考えが 
より過激な方向にシフトします。 


そして集団間の溝が、お互いが歩み寄ることが 
できないほどに深くなってしまう 


「集団分極化(group polarization)」 
という現象が起こると言います。 


そして、匿名のインターネット上ではこの傾向が 
強まってしまうそうです。 


これを防ぐためには私たちは自ら積極的に 
自分とは異なるもの、「他者」と交流して 
「他者の考え」に触れる必要があります。 


昨今、ダイバーシティ(多様性)という言葉が 
声高に叫ばれるようになりました。 


自分と異なる存在や気に食わない考え方を 
全て受け入れられないものだと「拒絶」して 
しまうのではなく、 


「理解」は難しいとしても 


「そういう人もいる(そういう考え方もある)」 


ということを 


「知ろうとする」 


ことが大切だと個人的には思います。 


そのことが、私たちが民主主義の世界に踏み止ったり、 
視野狭窄に陥らずに、自分の世界を今よりも広げて 
多面的な視点を手に入れるためには役に立つでしょう。 


インターネットで世界中の人と繋がれる時代 
だからこそ、他者が引き起こす 


「違和感」 


を自分の中に貪欲に取り込んで成長の糧に 
していきたいですね。 



3. 人生の絵筆を持つ 


上記の2つのキーワードによって示される 
ビッグデータにより今後起こり得る危機とともに 


考えておきたいのが、今回引用した部分、 
個別化広告の問題点についてです。 


オハイオ州立大学での実験結果ですが、読んでいて 
非常に面白いと思ったのは、 


「自分の意思で決めた」 


と考えていたことが、実は 


「操作されていた」 


可能性があるということです。 


自分が好きで選んだと思っていたものが、 
本当は好きなことではなく、ただ、好きだと 


「思い込まされていた」 


のだとしたら、一体、私たちの本当の意思というのは 
どこにあることになるのでしょうか? 


私たちは自分が知っているものしか知りませんし、 
その中からしか「選択する」ことができません。 


そして接触頻度が多いものは好きになる傾向があります。 


従って、これをマーケティングに「有効活用」すると、 
ユーザーに商品を買ってもらえるように、ユーザーの 


考え方を「変えていく」ことができる、という 
ことになります。 


これはすでに大分前から、マーケティングに 
取り入れられている考え方です。 


でも、人口知能とビッグデータを活用した 
マーケティングによって、より巧妙に、ユーザーに 


感づかれることなく、ユーザーを企業の 


「意に沿わせる」 


ことができるようになっていくでしょう。 


私たちの自衛の手段としては、私たちは個別化広告に 
よって考えを「変えられる」可能性がある、と知っておく、 
ということでしょうか。 


そして、時々 


「今、自分はもしかしたら誘導されている 
 のではないか?」 


と考えてみることでしょう。 


引用した部分の例では、個別化広告によって 
被験者が 


「自分は環境保護に熱心な人間だ」と「信じた」 


とあります。ということは、個別化広告のように、 
例えば自分の周りを自分が望む姿、目標とする 
状態の情報で満たしてやったらどうなるでしょうか。 


この場合もやはり、自分は 


「自分が目指す状態の自分である」と「信じる」 


ことができるのではないでしょうか。 


真っ白な人生のキャンバスに自分の人生を描いて 
いくのは他ならぬ私たち自身です。 


他の人は代わりに描いてはくれませんし、ビッグ 
データのような「他の人の都合」によって 


知らず知らずのうちに「描かされてしまう」のは 
よろしくありませんよね。 


そのことに気づくことができたなら、次は 


人工知能「様」 


の有難いアドバイスに対する疑いの心を忘れずに、 
そのアドバイスにも「No!」と言える、そのような 
環境を守る必要も出てくるでしょう。 


そのためのヒントはこの本の中で見つけて下さい。 



4.まとめ 


・ビッグデータが教えてくれる 
 「私たち一人一人に最適化された」情報は、 
 実は「似たような属性を持つ集団」の情報を 
 当てはめたもの過ぎない 


・「自分が当てはまるとは限らない集団の属性」に 
 「当てはめられてしまう」ことで、社会的に 
 個人が抹殺されてしまう 


・インターネット上で自分の好みにカスタマイズ 
 された情報ばかりを見ていると、自分が好まない 
 情報に触れる機会が激減して、他者との意見が 
 全く合わなくなり、最終的には社会の政治的な 
 分断が起こる 

 

------------------------------------------------

 

メルマガでも配信中です。

 

メルマガ「読書尚友」登録フォーム