AI倫理において「開発」と「利用」は区別すべき

バチカンの教皇庁立生命アカデミーの定例総会でローマ教皇フランシスコの人工知能についてのメッセージが(本人の体調不良のため)代読された。

教皇は、人工知能を善に用いることができる一つの資源として大きな可能性を期待する一方で、商業・政治目的で無意識のうちに人間の習慣や傾向がチェックされ、そうした情報が一部の人間に独占されることで民主主義に重大な危機をもたらすと懸念した。

VATICAN NEWS「教皇「人工知能を善のために活用を」」2020年2月28日

そしてIBMとマイクロソフトの取り組みに賛同する形で、「アルゴリズム倫理」と呼ばれる人工知能(AI)の倫理的開発を促進し、顔認識など人権へのリスクが高い高度な秘術については、透明性と倫理原則の遵守を促すため、新しい形式の規制を進めるべきと主張した。このリスクとは、警察が犯罪捜査に顔認識を利用したり、大企業が求職者の採用にAIを利用したりといった行動が含まれる。

Reuters, “Vatican joins IBM, Microsoft to call for facial recognition regulation”, 28 Feb 2020

確かに、AIが過剰に個人の情報を収集してプライバシーの侵害を起こしたりするのは問題で、民主主義国家であればその「活用」には一定の規制が必要だろうし、現に世界的にその流れである。しかし、倫理的な「開発」とは一体何だろうか。プライバシーを侵害する技術開発自体を規制する事だろうか。

もし、開発自体に規制をかけるという事であれば、民主主義国家自体が危機に瀕することになると断言しよう。なぜなら、現代の国家による対外諜報活動(インテリジェンス)は、従来の情報収集やスパイといった方法だけでなく、人工知能を用いた間接的なデータ収集・分析も含まれるからである。

たとえば、特定企業だけの検索やメールや地図などのサービスを多数使い、位置情報などもデフォルト設定通りに提供しているユーザーであれば、恐らく当該企業はそのユーザーが何者であるかを特定しようと思えばできるくらいの情報を取得しているだろう。(実際に特定するかどうかはまた別の話である。)

インテリジェンスの世界でも、映画に出てくるようなスパイ活動だけではなく、公開情報などを組み合わせて知見を得る事は多々あり、それは機械学習を用いた分析と非常に親和性が高い。

これらの技術の開発を規制してしまうという事は、他国からの攻撃や諜報活動に遅れを取ることになる。先進国が規制したからと言って、他の国も同様に規制してくれるかは別問題である。先進国がクローン技術の研究を規制しても、中国ではどうやら多かれ少なかれ研究されているようだ。

クローン人間の場合は防衛や諜報活動において直接的に必要となるものではなく、直接的に人権を侵害する可能性が高いので研究自体を規制する事に大きな意味があるが、AIなどによる顔認識技術などは社会的な便益も高く、開発自体に倫理を用いて規制してしまうことは、社会経済的な機会損失だけでなく、将来的な他国からの攻撃に対する脆弱性を高めることになる。

なので、一般国民に対する「利用」については倫理的規制をもたらすことには大きな意味があるが、「開発」については別個に取り扱うべきものであると筆者は考えている。

       

この記事の著者 HAL について

金融・マーケティング分野の機械学習システム開発や導入支援が専門。SlofiAでは主に海外情勢に関する記事、金融工学や機械学習に関する記事を担当。

HAL の記事一覧 SlofiAのtwitterアカウント@slofia_finance