AIは黒人を見分けられないわけではない

2015年にGoogleフォトで、黒人カップルの画像が「ゴリラ」とタグ付けされて騒動になったことを覚えているだろうか。元のツイートは削除されているのでウォール・ストリート・ジャーナルのツイートからだが、以下の画像のように黒人女性に”Gorillas”とタグ付けされたことで最終的にGoogleは謝罪することになった。

2018年1月時点で「ゴリラ」や「チンパンジー」といったキーワードでは検索できないようになっているだけだ。その後も抜本的な問題解決に至ったという話は聞かず、Googleに限らず人種バイアス問題を解決できたという話は寡聞にして知らない。

黒人の顔認識が難しい理由としては、

  • 顔認識に使われる学習データが白人に偏っている
  • 肌の色が濃いと色のコントラストが小さく学習が難しい

といったことが挙げられることが多い。(参考:CNET「顔認識の「人種バイアス問題」、なぜ解決が困難なのか」2019年3月30日)

コントラストの問題はあるが、データを集めれば技術的にできないわけではない。出来ないわけではなく「やらない」だけである。

何故やらないのかは大きく分けて2つの理由があると考えられる。

まず「費用対効果が低い」ことにある。別に今の技術でも大半の黒色人種の画像は適切に黒色人種と識別することができる。冒頭の画像のような間違えてしまうケースが稀にあるだけだ。それを解決するためには膨大なデータとコストが必要だが、それを解決したところで大きな利益があるわけではない。それでも完璧な精度になるわけではないから、もし間違えたら再度炎上して謝罪する羽目になる。

もう一つはポリティカル・コレクトネス上の理由である。もしIT企業が「黒人とゴリラを正確に見分けられるようにするためのプロジェクトを立ち上げる。その為に大量の黒人やゴリラ、チンパンジーなどの画像データを収集し、識別モデルを作る」などと発表したらどうなるだろうか。

筆者は、これだけで大炎上すると考えている。こうした画像を「似たもの」として集め、その特徴量を学習させるというのだから、それだけで差別的だと多方面から攻撃されるに違いない。実際にプロジェクトを進めれば精度は高くなるだろうが、それをこっそりと始めても利益は少ないし、宣伝の為に公表すれば炎上すると考えれば、誰もやりたがらないのは当然である。

About HAL

金融・マーケティング分野の機械学習システム開発や導入支援が専門。SlofiAでは主に海外情勢に関する記事、金融工学や機械学習に関する記事を担当。

View all posts by HAL →