Browse By

AI(人工知能)の倫理問題

AI倫理問題

AI倫理とは?(What is AI Ethics)

幅広い業界で需要が増えるAI(人口知能、エーアイ)。日本ではIoT(モノのインターネット)やAIを導入する企業は2020年時点で2割に留まっています(※1)が、世界では巨額の投資がなされており、市場の統計データを提供するStatistaは、AI市場は2025年までに約1,260億米ドルに達すると予測しました。

製造や金融、小売、ヘルスケアなどの業務の効率化などに役立つAIですが、私たちがAIを利活用していく上で考えなくてはいけないことの一つが、倫理の問題です。たとえば自動運転で事故が起こったら誰の「せい」になるのか、AIの結果によって人権が侵害されることはないのか、兵器化される心配はないのか、AIそのものに人権はあるのか――AIの倫理問題に関する話題は尽きません。

AIと共存していく社会の中で、私たちが考えておかねばならないことは何か。本記事では、AI倫理にまつわるデータや事実、論点、団体・企業の取り組みなどの情報をわかりやすくまとめました。

AI倫理について今議論すべき理由(Why AI Ethics)

シンギュラリティ(技術的特異点)」または「2045年問題」と呼ばれる概念は、これまで人間が開発していた機械が、自ら学ぶという性質を持って急激に発展し、人の想像力がおよばないほどに優秀な知能を生み出すことが可能になる時点のことを指します。人工知能研究の第一人者であるレイ・カーツワイル氏による大規模な研究が行われ、この概念が世界に広く知られるようになりました。2045年頃には、10万円程度のコンピューターの演算能力が人間の脳の100億倍になると言われています。

AI倫理について議論すべき理由の一つは、そんな技術の指数関数的な発展に対しての不安が表れているからです。SF作品や本などでは、AIが高度な知識をもって人類の終焉をもたらすのではないか、といった懸念が描かれています。たとえば映画『ターミネーター』では、意志を持ったコンピュータが人間の脅威となりました。また、米国のドキュメンタリー作家であるジェームズ・バラット氏は著書『Our Final Invention: Artificial Intelligence and the End of the Human Era(邦題:人工知能 人類最悪にして最後の発明)』を2013年に発表し、AIの問題や危険性について説くなど、一部で発展しすぎたAIが人類に危害をもたらすことを恐れる声はあります。

一方で、バイドゥ研究所所長の アンドリュー・ウン氏は2016年のAI会議(IJCAI-16)にて「こうした心配は、火星に移住した結果、火星の人口爆発を心配するようなものだ」と述べる(※2)など、現時点でのシンギュラリティが訪れることは否定できないけれど、懸念しすぎだという声もあります。

シンギュラリティ

AIが人間を滅ぼす、とまではいかなくても、現実的な不安はあります。その一つが、雇用問題です。

英オックスフォード大学のオズボーン准教授らは、アメリカでは10~20 年以内に総労働者の47%の仕事が自動化される可能性が高いとの研究結果を発表しました。日本でも野村総合研究所が 2015年に同様の調査を発表(※3)しています。たとえば、Excelなどへのデータ入力や、スポーツの審判、そして精密な機械の操作などがAIに取って変わる仕事と予測されています。そのため、救済策としてベーシックインカムの導入実験が各国で行われ、ポストワークエコノミーの訪れを唱える人々もいます。

いずれにせよ、AIが倫理的な判断ができるかどうか、はじめにデザイン(設計)をするのは人です。作っている側が悪意を持っていなかったとしても、設計当初からは予想のできない方向に発展したり、製作者の無意識の偏見・差別意識を結果として反映して人を傷つけたりすることはありえます。AIが人道的な規範を破らず、人類に悪影響を与えないようにするため、今議論しておくことが大切なのです。

AI倫理では何が問題となっているのか?(Issues)

では実際、どのようなことが懸念されているのか。フレーム問題(※4)やシンボルグラウンディング問題(※5)などAIの発展にとっての最大の難関になるだろうと言われている問題もありますが、ここでは現在議論されているAI倫理問題のいくつかのポイントを、事例と共に見ていきましょう。

AI倫理の現時点での課題

  1. 責任の所在がわからない問題
  2. 差別・偏見に基づく行動の問題
  3. ブラックボックス問題
  4. 個人データの使用問題
  5. AIに「人権」はあるのか問題

01. 責任の所在がわからない問題

事故が起きても責任の所在がわからない

現時点でのAIの倫理的(かつ法的)な課題の一つは、AIの起こした事件の責任を誰が取るのかが明確になっていないことです。たとえば自動運転の車が事故を起こした場合、責任があるのは車の運転席に乗っていた人なのか、それとも、車のメーカーや下請けの製造工場、説明を怠った販売員なのか。

過去には、テスラ(Tesla)の自動運転車が2018年と2016年に死亡事故を起こし、ウーバー(Uber)の自動運転自動車が2018年の試験運転中に歩行者を死亡させる事故を起こしました。ウーバーの死亡事故に関しては、米道路安全保険協会(IIHS)が、車両に使われていたボルボ(Volvo)社の安全システムが解除されていなければ事故を回避できた可能性がある、という見解を示しています。

現時点では責任の所在を明らかにする法整備がされていない状態です。また、これから実証実験や検証が重ねられ、AIが人道的で倫理的な判断を下すことができる、と証明され、事故が起きたらAIの責任となったとします。それでも事故が起きたら、遺族は運転席に座っている人を責めずにいられるでしょうか。

02. 差別・偏見に基づく行動の問題

顔認識

次に、AIの出した結果が人権を侵害する可能性もあります。たとえば監視カメラ等が集めたデータによって差別的な評価選別が行われたり、人事採用で性差別が起こってしまったりというケースです。

2018年、アマゾンの顔認識AI「レコグニション」がアメリカの上下両院28人の議員の顔を「犯罪者」だと誤認識しました。問題なのは、黒人系の議員の誤認識率が高かったという点です。

他にも、IBMやマイクロソフトの顔分析技術は白人男性に関しては非常に精度が高い一方で、有色人種や女性に対してはエラーが起こりやすいことが明らかになりました。その後、2020年に3社とも顔認識AIからの(一時的なものも含む)撤退を表明しています。

そして同じく2018年、アマゾンがAIを用いた人材採用ツールの開発を進めていたところ、技術職では男性ばかりを採用しようとする傾向があることがわかりました。AIが過去の採用履歴や履歴書のプロフィールを学習した結果、「この会社では男性を採用することが好ましいと」判断したのです。結局、こちらのプロジェクトチームも差別を助長しかねないとして解散に至っています。

03. ブラックボックス問題

AIのブラックボックス問題

ブラックボックス問題とは、AIの考えのプロセスが見えず、合理的に結果を説明することができない問題を指します。これにより、上記のようなAIによる差別的な事例を説明できないことがあったり、インターネット上にあるバグのようなデータ・偏ったデータが収集された結果、誤った意思決定につながってしまったり(そして原因はわからないまま)といった脆弱性があります。

従来型のコンピュータでは、人間の作ったプログラムによって物事を判断していたため、製造者や利用者はその判断の根拠にさかのぼることができました。しかしAIの場合は、「膨大なデータを学習し自律的に答えを導きだす」というディープラーニングの特性から、判断の根拠や思考のプロセスが私たち人間には理解できないケースもあるのです。

2015年には、グーグルフォトが黒人系カップルの写真を「ゴリラ」と自動的にタグ付け。写真に写っていた男性のツイートにより、問題が発覚しました。グーグルは問題があったことを認め、すべての「ゴリラ」のタグの削除や、「ゴリラ」のキーワードでの検索停止などの対応策を表明しました。この事例は、元はといえばAIが学習していた「黒人の画像データ」が「白人の画像データ」と比べると少なく、それが偏見のある結果につながったのだろうと推測されています。

04. 個人データの使用問題

個人情報の保護

プライバシー・個人情報の保護も重要な問題です。私たちは普段ネットサーフィンをしているだけで、知らず知らずのうちに自分の位置情報や、学歴、人々とのつながり、趣味嗜好などの個人情報を提供し、そこで分析された情報からネットショッピングの「おすすめの商品」や動画配信サービスの「おすすめの動画」などを返されています。AIが正常に働くには、膨大な量のデータが必要なのです。

しかし、そのデータが勝手に複数の会社間で共有されていたり、公開されたり、利用されていたりしたらどうでしょうか。中国のアリババグループが開始した、個人のデータをAIに分析させて、その「信用スコア」によって恩恵が受けられるサービス『芝麻信用』の普及などを機に、個人情報の流出やプライバシーの侵害、監視社会化するリスクが高まっています。

プライバシーを侵害しないよう、企業はデータの匿名化や、プライバシーの問題についてアルゴリズムを積極的にスクリーニングするなど、さまざまな保護手段を導入する必要があるのです。下記は、具体的に私たちのデータがどのように使われているかについてわかりやすく解説した動画です(英語)。

Invisible robots – V4 – HR from HRBDT on Vimeo.

05. AIに「人権」はあるのか問題

AIに人権はあるのか

最後に、AI自体に「人権」を与えるかどうか、という問題です。近年、中国やフランスなど、世界でAIとの結婚の実例が少しずつ増えてきています。2018年には、日本で初音ミクと結婚したことを公務員男性が発表し話題になりました。人間と同じように思考するかのように見えるAIが、より私たちの生活に身近になっていく中で、Robot rights(ロボットの権利)やAI rights(AIの権利)についての議論がかわされています。

現時点では、欧州議会などはまだ答えを出しておらず、機械の開発者に権利があるとしています。

法律事務所Womble Bond Dickinsonのパートナーを務めるテッド・クレイポール氏は、アメリカの法律ジャーナルNational Law Reviewで「ロボットは、いつ自分のアパートを持ちたいと思うか。テクノロジーを発明したAIは、いつその収益をより良いマーケティングに再投資したいと思うだろうか。企業で働くAIは、いつ同僚と同等の報酬を要求してくるだろうか。私は、これらのいずれかが発生するまで、あらゆる種類の人工知能の存在に法的権利を付与するという概念について議論するべきでないと考えています。現時点ではツールに過ぎません」と述べる。

しかし一方で、動物に関しても同じような議論(動物に権利を与えるべきか否か)が過去にされた結果、現在では動物愛護法などができているので、時代によってはロボットやAIの権利にも法が適用されるべき、という主張もあります。将来的には、どこからが人でどこからが人工物か、という境界がより曖昧になっていくと予測されています。

AI倫理に取り組む各国政府・企業(Organization)

上記のような懸念に対応するため、各国の政府やさまざまな企業がAIの倫理に関するガイドラインを独自に設けています。特に2018年から2019年にかけて、倫理原則を掲げた企業が増えました。

国際的なAI倫理のイニシアチブ

欧州委員会は2019年、52名の専門家により作成された「信頼できるAIのための倫理ガイドライン(Ethics guidelines for trustworthy AI )」を発表しました。AIは合法的(lawful )で倫理的(ethical)、堅固(robust)であるべきとしており、その条件として次の7要件が挙げられました。

  1. 人間の活動と監視:AIは、人間の活動と基本的人権を支援することで公平な社会を可能とすべきで、人間の主体性を低下させたり、限定・誤導したりすべきではない
  2. 堅固性と安全性:信頼できるAIには、全ライフサイクルを通じて、エラーや矛盾に対処し得る安全かつ確実、堅固なアルゴリズムが必要
  3. プライバシーとデータのガバナンス:市民が自身に関するデータを完全に管理し、これらのデータが市民を害し、差別するために用いられることがないようにすべき
  4. 透明性:AIシステムのデータの処理のされ方などの追跡可能性の実現
  5. 多様性・非差別・公平性:AIは、人間の能力・技能・要求の全分野を考慮し、アクセスしやすいものとすべき
  6. 社会・環境福祉:AIは、社会をより良くし、持続可能性と環境に対する責任を向上するために利用すべき
  7. 説明責任:AIとAIにより得られる結果について、責任と説明責任を果たすための仕組みを導入すべき

(日本語訳はJETROより引用)

2019年には350人を超えるステークホルダーによるパイロット期間が終了し、2020年7月には最終評価リストが発表されています。欧州の企業は、これらのチェックリストを一つひとつ確認し、倫理的なAIの使用を行う必要があるということを示しています。

他にも、米国ではAIに関する研究やベストプラクティスを共有するプラットフォームである「The Partnership on AI」が立ち上がり、イーロン・マスク氏や影響力のあるスタートアップインキュベーターYCombinatorの責任者らによって提携し、安全なAIを構築することを使命とする非営利団体「OpenAI」も設立されました(マスク氏は2018年に幹部職を退任)。

海外政府の取り組み

2018年6月、シンガポール政府が発表した「人工知能(AI)のガバナンスと倫理のイニシアチブ」と題する計画は、これまで各国政府が公表した同種の報告書とは一線を画していると話題になりました。

本計画は「イノベーション推進のための仕組み作り(pro-innovation regulatory)」と「AI利用者が信頼できる環境(trusted environment)の構築」を掲げ、産業分野や企業にAI開発の自主ルールを作るよう促すもの。他の国と異なっていたのは、企業がAIシステムを開発するうえでどのような(WHAT)価値を守るべきかに加え、どのように(HOW)守るべきかまで踏み込んで記述していた点です。

グローバル企業の取り組み

テクノロジー大手のAI倫理原則

米国テクノロジー大手のグーグルでは、2018年3月に、アメリカ国防総省の行う「Project Maven」への参画が明るみに出ると、社内で反対運動がおこり、下記のような「グーグルにおけるAI利用原則」を発表しました。

AI応用の目標:

  1. 社会に有益であること
  2. 不公平な偏見を促さないこと
  3. 安全に設計し、テストすること
  4. 人々への説明責任を果たすこと
  5. プライバシーの原理を設計すること
  6. 高水準の科学的知識を持ち、共有すること
  7. これらの原則に従って、AI技術の提供・利用を行うこと

AI応用をしない分野:

  1. 害悪を引き起こすリスクのある技術
  2. 人を直接傷つける、またはその原因となる武器や技術
  3. 国際的な基準に反する監視情報を収集・利用する技術
  4. 国際法や人権の原則に反する目的のある技術

グーグルが示したガイドラインのポイントは2つ。ひとつは社会に貢献することを目的として、誠実でエシカルなAI活用を行うこと。そしてもうひとつは、人々や社会にとって害となる、または害を引き起こす原因となることには活用しない、とはっきり表明したことです。

マイクロソフトは、積極的に指針を公表し、政府の規制も必要だと訴えています。2019年7月には、AIの倫理的な利用について検討するOpen AIに10億ドル(約1087億円)を出資すると発表しました。また、2018年1月にはAIと倫理についての基本方針「The Future Computed」を発表しています。

IBM会長、社長兼CEOのジニー・ロメッティは、2017年1月のダボス会議にて「AIやコグニティブ・システムの目的は人間の知能を拡張すること」と話しています。IBMでは、AI脅威論として語られるような人間を置き換えるものとしてのAIではなく、人間と協調し、より高い価値を生み出すためのAIの開発を推進しているということです。また、翌2018年には、AIの信頼と透明性に関する原則や実践的ガイドを発表しました。

責任あるAI

アクセンチュアは、従業員やビジネスに力を与え、顧客と社会に等しく良い影響をもたらすAIを設計、構築、展開することを「責任あるAI(レスポンシブルAI)」と定義。レスポンシブルAI によって、企業は信頼を獲得し、自信を持ってAIをビジネス全体で活用していくことができるとしています。そのために以下の4点を大事な要素として上げています。

  • 信頼
  • データ・セキュリティ
  • 透明性と説明可能性
  • 統制

日本におけるAI倫理への取り組み(Japan)

AI倫理に取り組む日本の団体としては、下記が挙げられます。

政府の取り組み

2018年5月、内閣府において「人間中心のAI社会原則検討会議」が設置され、2019年2月より「人間中心のAI社会原則会議」に移行しました。ここでは、人間の尊厳が尊重される社会、多様な背景を持つ人々が多様な幸せを追求できる社会、持続性ある社会、の3つの理念を尊重・実現すべく、人間中心のAI社会原則を掲げられています。

人間中心のAI社会原則は、社会(特に国などの立法・行政機関)が留意すべき原則をまとめた「AI基本原則」があり、以下の7つの項目が含まれます。

  • 人間中心の原則
  • 教育・リテラシーの原則
  • プライバシー確保の原則
  • セキュリティ確保保の原則
  • 公正競争確保の原則
  • 公平性、説明責任、及び透明性(FAT)の原則
  • イノベーション

たとえば、公平性、説明責任、及び透明性(FAT)の原則では、「AIの設計思想の下において、人々がその人種、性別、国籍、年齢、政治的信念、宗教等の多様なバックグラウンドを理由に不当な差別をされることなく、全ての人々が公平に扱われなければならない等」と明記されています。

また、 2019 年5月に開催されたOECD閣僚理事会では、AIに関する勧告が採択され、同年6月のG20貿易・デジタル経済大臣会合では、「人間中心」の考えを踏まえたAI原則に合意しています(※6)

厚生労働省では医療分野でのAI利用についての姿勢を示した資料が発表されました。 人工知能(AI)を用いた診断、治療等の支援を行うプログラムを利用して診療を行う際、判断の主体は医師であり、AIは診療プロセスの中で、その効率を上げて情報を提示する支援ツールに留まるということです。

日本企業の取り組み

AI倫理原則を掲げた企業たち

富士通やNECがAI利用のポリシーを策定(2019)

NECは、AI(機械学習)を活用したシステムの品質を担保するための「NEC AI品質ガイドライン」を策定。NECグループ会社5,300人が集い情報交換・共有を行う「NEC Data Analyst Community」で共有し、2020年4月以降のAI案件に適用していくとしました。

目的は、従来型のソフトウェア品質保証だけでは対応できない、AIシステムの品質を担保すること。「早期のリスク防止のため、AIシステムのフェーズごとにチェック項目を設定」と「AI開発の経験から、機械学習モデルに関する定量値を含むチェック項目を設定」という2つの特徴があります。

開発の際の品質の十分性の測定など、従来のソフトウェア品質保証に関するガイドラインだけでは困難だったものの下支えをするべく、AI応用システムの開発経験と、従来のソフトウェア品質保証のスキルを両立できる高度なスキルセットを有するNECがそのノウハウをまとめたガイドラインです。

NTTデータ、NTTデータグループのAI(人工知能)への取り組み姿勢をまとめた「NTTデータグループAI指針」を策定(2019年5月)

NTTは、「NTTデータグループAI指針」に基づき、AIの研究・開発・運用・利活用などを推進していきます。骨子として、持続可能な幸福社会の実現、共創による新しいAI価値の創出、公正で信頼できる説明可能なAI、安心安全なデータの流通、AIを健全に普及させる活動の推進の5つを掲げました。

AIが持つ懸念事項を解消すべく行動するとともに、持続可能で多様性・包摂性・透明性の高い、人間中心の社会を実現するためにAIを活用。単なる効率性確保の手段としてAIを利用するのではなく、「誰一人取り残さない」という理念に沿い、顧客を含めたすべての個人・ビジネス・社会がAIのメリットを享受できる「人間とAIが共生する社会」を目指しています。

ABEJA、倫理委員会を設置(2019年7月)

AIプラットフォーム「ABEJA Platform」などディープラーニング技術の社会実装を進めるABEJAが、2019年7月30日にAIに関する課題について外部の有識者(法曹、 学術、 文化、 報道の分野で活躍する人たち)が倫理、 法務的観点から討議する委員会「Ethical Approach to AI」(EAA)を設立しました。

委員会内では、個別案件への助言や提言や社内のAI利用原則・行動指針の策定、出席者による知見の共有などが行われるといいます。

ソニー、全AIに倫理審査を行う方針(2020年12月)

2020年12月、ソニーは自社のAIを用いるすべての製品に対して倫理審査を行うことを決定しました。AI製品が差別やプライバシーの侵害に配慮しているかどうかを審査し、場合によってはプロジェクト自体の中止を勧告することも可能だといいます。

AIの透明性を担保するためのアプローチ

説明可能なAI(XAI)

ブラックボックス問題を解決するための技術開発も進んでいます。米IBMや富士通など各社が開発を目指すのは「説明可能なAI(Explainable AI、XAI)」と呼ばれるものです。富士通は、深層学習に基づく推定結果を人間に分かるよう説明する技術を開発中で、2019年3月までに同社のAI製品群「Zinrai」の関連サービスとして製品化すると発表しています。

また、電通国際情報サービスは2018年6月、米新興企業シムマシーンズが開発したXAIシステムを発売しました。

WideLearning(ワイドラーニング)

ホワイトボックスAI(=説明可能なAIと同義)の技術です。従来のディープラーニングのように1つのデータモデルを深掘りして学習を行うのではなく、複数のデータ項目を網羅的に組み合わせて判断することで、データ量が少なくても高い判定精度を可能にします。

これまで、デジタルマーケティング分野では潜在顧客を見逃す確率を10~50%低減、医療判断支援の分野では罹患者や疾患発生部位を見逃す確率を約20~30%低減するという効果を発揮しました。

富士通は、今後特にレアな事象の判断や高い透明性が求められる業務(クレジットカード取引の不正使用の判断、製品故障の予兆検知、セールスプロモーションにおける潜在顧客の発見など)をターゲットとした新たな機械学習のアプローチとして、ワイドラーニングの早期の実用化を促進していくといいます。

AI倫理の問題を解決するアイデアたち(Ideas for Good)

IDEAS FOR GOODでは、最先端のテクノロジーやユニークなアイデアでAI倫理の問題解決に取り組む企業やプロジェクトを紹介しています。

※1 総務省 情報通信白書 令和二年度版」
※2 人工知能と倫理 人工知能のもつリスク
※3 野村総合研究所 – 日本の労働人口の 49%が人工知能やロボット等で代替可能に
※4 フレーム問題:有限の情報処理能力しかないAIが、現実に起こりうる問題すべてに対処することができないこと
※5 シンボルグラウンディング問題:AIの記号がどのようにして実世界の意味と結び付けられるかということ。記号接地問題とも呼ばれる
※6 「AI戦略2019」統合イノベーション戦略推進会議決定

【参照サイト】内閣府 – 人工知能と倫理
【参照サイト】Unisys technology review – AI倫理に関する現状
【参照サイト】総務省 – AI/IoT 時代のプライバシー・個人情報保護の新課題

FacebookTwitter