倫理的なテクノロジーの活用を。グーグルが「AI利用原則」を発表

Browse By

革新的な技術は、使い方次第で脅威にも人々を助けるものにもなりえる。原子爆弾の原理となる画期的な理論を確立したユダヤ系ドイツ人の物理学者アルベルト・アインシュタインは、ナチスの迫害を受け亡命し、アメリカ政府に助言を行っていたが、広島や長崎の惨状を悔い、戦後は平和活動に尽力した。

近年注目される技術の一つに人工知能(AI)がある。スマートフォン、ロボット、スマートスピーカー等、便利な一方、危険性も議論される。主に、犯罪や軍事活動への利用だ。

米国テクノロジー大手のグーグルでは、2018年3月に、アメリカ国防総省の行う「Project Maven」への参画が明るみに出ると、社内で反対運動がおこり、このほど下記のような「グーグルにおけるAI利用原則」を発表するに至った。

AI応用の目標:
  1. 社会に有益であること
  2. 不公平な偏見を促さないこと
  3. 安全に設計し、テストすること
  4. 人々への説明責任を果たすこと
  5. プライバシーの原理を設計すること
  6. 高水準の科学的知識を持ち、共有すること
  7. これらの原則に従って、AI技術の提供・利用を行うこと
AI応用をしない分野:
  1. 害悪を引き起こすリスクのある技術
  2. 人を直接傷つける、またはその原因となる武器や技術
  3. 国際的な基準に反する監視情報を収集・利用する技術
  4. 国際法や人権の原則に反する目的のある技術

グーグルが今回示したガイドラインのポイントは2つ。ひとつは社会に貢献することを目的として、説明責任を果たしたり情報の共有をしたりするなど誠実でエシカルなAI活用を行うこと。そしてもうひとつは、人々や社会にとって害となる、または害を引き起こす原因となることには活用しない、と表明したことである。

現在、アメリカでは軍事関連の契約をしているが、段階的になくしていく予定だ。収益をあげるための事業としては当然、潤沢な国防予算の恩恵にあずかるのは魅力的だろうが、数に勝る社員たちが市民の目線で軍事利用に明確な「ノー」を突き付けたのだ。

戦争は技術を発展させ、技術は戦争をより悲惨なものにする。私たちが日常スマートフォンで使用するGPSも元々は軍事技術だ。今回の引き金となった国防総省の一件には、私たちになじみのあるドローン技術も含まれている。

今後、どのような線引きが行われるかは難しい判断に迫られるが、グーグルが平和や人権を重んじる「AI利用原則」を発表したことは、市民社会にとって大きな成果だ。今後、追随する企業があるか、他のテクノロジー系企業の動向にも注目だ。

【参照サイト】AI at Google: our principles