2021年11月、IDEAS FOR GOODでは「全部嘘のドキュメンタリー」をご紹介した。ノルウェーのフォトジャーナリストであるジョナス・ベンディクセン氏が発表したフェイクニュース業界に関する実録本「The Book of Veles」──この本の文章は全てAIで書かれたもので、使われている写真もデジタル技術を用いて作成したものだ。
しかし、この本が出版されても「誤り・懸念がある」という指摘はなく、逆にフェイクニュースへの「リアルな」問題提起をしたことに対するお礼のメッセージが届いたり、フォトジャーナリズム・フェスティバルへの出展申請が通ってしまったりする始末。「The Book of Veles」は、報道の専門家でさえもフェイクニュースを見抜くのは難しい、という事実を浮き彫りにしたのだった。
人々を惑わすフェイクニュースに、AI(人工知能)の力を使って立ち向かうのが、英国生まれのアプリ・Logically(ロジカリー)である。Logicallyを使うと、ユーザーはワンタップでニュースや画像のフェイク判定を簡単に行うことが可能。さらに、同じテーマについて視点の異なる記事を自動的に提示する機能が備わるなど、情報の氾濫した世の中でニュースと向き合い、自分の意見を醸造する手助けをしてくれるアプリである。
今回は、デマも含めたさまざまな情報が錯綜するインフォデミックの時代の「情報との向き合い方」について、Logicallyの創始者・ライリック・ジャインさんに、お話を伺った。
(※本記事は2019年11月に行ったインタビューの内容を再構成・再編集したものです)
ユーザーの「ニュースとの向き合い方」を変えたい
Q.Logicallyとはどのようなサービスですか?
Logicallyは、AIの力を使って、ユーザーが誤情報を見分けるのを助けるアプリです。アプリには、ファクトチェック機能だけでなく、AIによる「バイアスを排除した事実だけのニュース要約」を生成する機能や、同じ出来事について多様な視点で書かれた記事を自動でセレクトする機能、ニュースのキープレーヤーの行動や発言を時系列に追うことができる機能などが備わっており、ユーザーのニュース体験をより良いものにしてくれます。
Q.なぜLogicallyを作ろうと思ったのですか?
現代人は忙しく生きており、考える時間がありません。ニュースを見ても、考える時間がなかったり、余裕がなかったり、興味が持てなかったりと、様々な理由でニュースに対して受け身でいるだけになってしまいがちですよね。私は、その状況を変えたかったのです。
今の世の中には、情報があふれています。そうすると、忙しい人々が情報を得るソースは大手メディアや、SNSのトレンド、タブロイド紙などに限られてしまいがちです。しかし、これらのソースから得られるのは、あくまでも意見やひとつの見方であって、純粋な事実情報ではありません。狭い情報ソースから情報を得続けることは、メディア消費のバランスが偏ってしまっているということ。それはいわばバランスの偏った食事をしているのと同じ不健康な状態です。私たちはこの状況をなんとかしたいと思っているのです。
ただ、私たちは決して利用者に「Logicallyを信じれば良いや」と思って、考えることを放棄してほしくはありません。私たちは皆さんが真実を見つけたり、考えたりするときの助けになりたいのです。メディア消費を取り巻く現状に対するたった一つの有効な対処法、それは「メディアリテラシーを養う」こと。メディアリテラシーは、いわば情報社会を生きるための「ワクチン」のようなものです。私たちは、単なる情報プロバイダではなく、メディアリテラシーを育むうえで使ってもらえるツールになることを目指しています。
私たちは、デジタルメカニズムのなかにあるニュースの消費体験をいかに魅力的なものにできるかを考えています。ニュース消費をする際、記事全てを読まず、見出しだけ、あるいはリード文だけ見て終わってしまうこともできれば、今読んでいる記事とは違う見方を知ろうと調べてみることもできます。あるいは、もっと深く考えてみようと関係するストーリーすべてを追うこともできますよね。
見出しだけを読んで満足してしまう人たちに、さらなるニュース体験をしてもらうにはどうしたら良いか?起こった出来事について、効率よく、魅力的な方法で伝えるにはどうしたら良いか?そんなことを常々考えています。
Q.Logicallyは「AIと人間が力を合わせるアプリ」。一体どういうことでしょうか?
Logicallyでは、AIを完全に人間の代替にしようとは思っていません。人間の判断の効率を高めるために、ツールとしてAIを利用するイメージです。実際、Logicallyのファクトチェックでも、AIと人間が力を合わせています。AIはたくさんのデータを分析し、「正しい/間違い/ミスリーディング」の可能性を提示しますが、最終的には、人間のファクトチェッカーが調査結果やAIの分析結果を見ながら、ニュースの正誤あるいはミスリーディングかどうかを判断します。
私たちは、AIが得意なこと、人間が得意なこと、それぞれの得意な分野を生かして補い合うような設計をしています。例えば、AIは、測量や何千何万もの異なるソースから効率よく情報を集めることが得意です。しかし、ニュアンスを読み解くことはAIの苦手分野です。それが得意なのは人間なのです。大切なのは、それぞれの強みを生かし合うこと。そして、人間のバイアスを見つけるために機械を、機械のバイアスを見つけるために人間を使うことがとても重要だと思います。
また、近年よく、AIの内部構造がわからず、どのような論理でAIが結果を導き出したのかがわからないという「AIのブラックボックス問題」が指摘されていますよね。例えば、AIによる自動運転車が事故を起こしたとき。AIがなぜ事故を引き起こすような判断をしたのか、その判断プロセスがわからないようではいけません。「運転をAIに任せていたのだから、事故はAIの責任だ」と考える人もいますが、AIをトレーニングするのも、トレーニング用のデータを集めるのも、人間。すべては人間の責任なのです。そういった意味でも、私たちは「説明可能・解釈可能なAIをつくること」を大切にしています。
Q.考えること、とりわけクリティカル・シンキングについて思うことはありますか?
考えることは大切です。それはみんななんとなくわかっているでしょうけれど、なぜそれが大切かをわかっている人は少ないでしょう。現代は、じっくり考える時間もありませんからね。しかし、世界が今後向かう状況を考えればクリティカル・シンキングについての教育を世界的に取り入れるべきだと思います。
例えば、昔は「医者の子どもは医者」「肉屋の子どもは肉屋」といったように、子どもも親の職業を引き継ぐのが当たり前でした。しかし、今はそうではありませんよね。生涯同じ仕事をするのが常識だった時代も終わり、今では2つ以上のキャリアを持つことも珍しくはありません。このようにキャリアを取り巻く状況は、ここ100年程度で目まぐるしく変わりました。そしてこれから、「自動化」の波が訪れるでしょう。これまで人間が行っていた仕事を、機械が行うようになるのです。
AIに取って代わられる職業もあるでしょう。そんなときに「仕事が取られてしまった」と落ち込んでしまうのではなく、適応できるのは「柔軟な人」です。新しいスキルを学び、自分で考えられる柔軟な人は、第4次産業革命の影響を大きく受けずに済むでしょう。
私たちがよりよく考えるためには、懐疑的にならなくてはなりませんが、同時にオープンである必要もあります。「これが間違いなら、何が本当?」「これが本当だとして、ほかにも本当のことはある?」そんなふうに、違うレンズで物事を見ることはとても大切だと思います。
編集後記
取材の終盤、ライリックさんは言った。
「近年、人々は同質の者でかたまりがちで、『これが正しい道だ』と思ったらそれ以外の道は存在しないかのように狂信的になっているように思えます。狂信的な考え方をすることで、行動変容につながるアクションが起こしやすくなったり、アクションを通して政策策定に影響を与えることができたりといった利点もあるでしょう。しかし、世界を簡略化し、一つの問題にすべてを落とし込んでしまっているのは問題だと思うんです」
「世界は複雑で、常に変化し続けています。私たちが世界のすべてを理解しようと思ったら、毎日考えることだけにすべてを費やさねばならず、他に何もできなくなってしまうでしょう。私は、人々に、すべてを費やして世界を理解してほしいわけではありません。みんなが『わからない』『知らない』状態を認められるように、『わかりません』と言えるようになったらいいなと、そう思うんです」
最新の情報にキャッチアップしたい。世の中の動きを把握したい。人と話すときに無知をさらさないように準備しておきたい。──ニュースを追うとき、私たちは、物事をできるかぎり白黒はっきりさせたい気持ちでいるように思う。だが、世界はいつも白か黒の二択で判断できるほど単純ではないはずだ。
私たちはあまり「わからないことを、わからないままにしておくこと」に慣れていない。学校では「答えを出すこと」を求められてきたし、結論のない状態やなんだかはっきりしない状況をそのままにしておくのは、労力のいることだからだ。
「わからない」状態を認められるようになるために、答えを保留にして考え続けられるようになるために、私たちは日々「世界を複雑なままにしておく練習」をしていく必要があるのだろう。
【参照サイト】Logically
【関連ページ】インフォデミック
【関連ページ】エコーチェンバー
【関連ページ】フィルターバブル