Google、AIの利用に関する倫理原則を公表 「武器用のAIは開発しない」姿勢明確に

Googleは6月7日、AI(人工知能)の開発と利用に関する倫理ガイドラインを公表しました。

スンダー・ピチャイCEO(Sundar Pichai)が同社の公式ブログで明らかにしたもので、AIは社会に便益をもたらすためのものと位置づけて、武器のように人を傷つける分野向けの開発はしない姿勢を明確にしました。

Google “The Keyword”:AI at Google: our principles

Google AI : Our Principles

Googleはこのほど、米国防総省(DoD)との軍事関連プロジェクト「Project Maven」に関する契約をめぐって多くの社員や外部からの反発を受けていました。このプロジェクトはAI技術と画像認識技術をDoDに提供するというものですが、その成果がドローン兵器に利用される可能性があると危惧されていました。4月には3000人以上の従業員がこの契約に反対するCEOへの請願書に署名したと報じられています。

今回AIの倫理ガイドラインをあえて公表したのは、同社のAIの活用の仕方について社内で議論が巻き起こっているため。Googleの最高経営責任者(CEO)を務めるスンダー・ピチャイ氏(Sundar Pichai)が公式ブログで以下の7つの指針を明らかにしました。すでにGoogle AIの公式ページでも「Our Principals」のページが新設されていました。

  1. 社会にとって役に立つ
  2. 不公平な偏見(バイアス)を避ける
  3. 安全な開発とテスト
  4. 説明責任を果たす
  5. プライバシーに配慮する
  6. 研究成果や知識の共有
  7. 有害となる可能性のある利用の制限

また、AIを利用しない領域として以下の4つを明示しました。

  1. 全体的な害を引き起こす可能性のある技術
  2. 人間に危害を与えることを目的とした武器その他の関連技術
  3. 国際的なプライバシー規範に反する監視のために情報を収集・利用する技術
  4. 国際法と人権に関する原則に反する目的を持つ技術

ガイドラインには「社会にとって役に立つ」「バイアス(偏向)を避ける」「プライバシーに配慮する」といった項目が並びます。他社にない強いメッセージとして「人を傷つける」分野への適用はしないと明示し、中でも「武器用のAIの開発はしない」としています。また「人権に関する国際基準を侵害するような」監視活動、あるいは便益よりも害を引き起こすリスクの方が大きい監視活動への利用を進めないとし、軍事ドローン向けの利用を明示的に排除しました。

また、AI開発にあたる社員と顧客企業に対しては、人種、性別、性的嗜好、政治、信教などの面で「人々に不公正な影響を与えるのを避ける」よう求めています。

公式ブログでピチャイ氏は「これだけ強力な技術になると、その利用に関して同様に強力な問題が生じることを認識している。AIをどのように開発して利用するかは、今後長年にわたって社会に重大な影響を与えるだろう」とし、「AIのリーダーとして、これを正しく進める重大な責任を感じている」と述べています。

なおサイバーセキュリティ、調査、救助、生産性ツール、医療などの分野については今後も軍事事業や政府機関と協力していくとしています。

軍事産業や米国議会議員の一部からはすでに批判も出ており、ピート・キング下院議員(共和党)はTwitterで、Googleがドローン・プロジェクトの契約を更新しないことは「米国の国家安全保障にとって敗北だ」と投稿しています。

しかしこのGoogleの動きは、AIの開発に携わるIT業界全体を方向づけるものになるでしょう。ふつうなら注目されにくい倫理や規制といった議論の盛り上がりは、未来の技術と思われていたAIが、生活にとっての当たり前へと急速に変化したことの裏返しと言えます。

mamesuke

福岡出身、関西で学ぶ大学生。学生メディアとして、大学新聞で活動中。ガジェット好き、旅行好き、カメラ好き。鉄道もちょっとかじってます。

あわせて読みたい