2018年5月14日月曜日

AIが男女差別する? “データの偏り”が招く思わぬ落とし穴

 ネットの閲覧履歴から性別を、画像から性別や人種を判定することは、AIには朝飯前だ。

 だが、AIが依拠する膨大なデータ自体に思わぬバイアスが潜んでいるという。

*  *  *

 どこもかしこもAIだらけだ。検索しない日はないし、レストランを調べた後は、広告が至るところに現れる。ネットで買い物をすれば「これもいかが?」と関連商品を薦められ、ツイッターを開けば、オーディエンス機能が自分のフォロワーの男女比や収入帯まで教えてくれる。顔写真からその人の性別や年齢を判定するアプリは複数存在し、いくつかの閲覧履歴から、男女をかなりの精度で判定することも難しくないらしい。さすがはAI、何やらスゴい進化を遂げている、気がする。

 そもそもAIは、男性と女性をどうやって見分けているの?

 人工知能や機械学習に詳しいヤフー データ&サイエンスソリューション統括本部の鎌田篤慎さんと、産業技術総合研究所の神嶌敏弘さんが、わかりやすく教えてくれた。

「現代のAIは、大量のデータに基づき強く特徴として現れている要素で見分け、データの統計的な傾向を元に分類しているだけです。身体的な特徴でも閲覧履歴などの行動様式でも、データは人間が与えたもの。AIが意思を持って判断しているわけではないんです」(鎌田さん)

 どんなデータを人間が学習させるかは、AIの機能に大きな影響を及ぼすという。

 さらに、AIにある程度の精度を確保するためには、与えるデータの量も重要だ。  数年前は、各社からリリースされていた顔認識ソフトの精度に、男女や人種間でかなりのバラつきがあると報告された。

「あるソフトでは、女性より男性のほうが個人を判定する精度が高い傾向がありましたし、白人よりダークスキンの人々の判定精度が低い傾向がありました」(神嶌さん)

 つまり、AIは女性らしさより男性らしさを認識しやすい、ということ?

「違います。精度の差は、基本はデータ不足から起こるもの。女性の場合、化粧による変化が大きいせいもあるでしょうが、精度を得るためのデータが不足していたということです」(同)

 音声認識の分野でも、女性の声より、男性の声の解析精度が高い傾向があった。これも、女声のデータが少なく、かつ女声の周波数帯域が男声より広かったためではないかという。

 さて、皆さん。AIなら、人間と違って感情に左右されず、冷静にビッグデータから判断してくれるハズ、偏見や差別とは無縁、と思っていないだろうか。

 だが、データ自体、社会の実態の蓄積だ。偏った状態も、はっきりと映してしまうという。

 ある研究で、インドで公開された4千本以上の映画のプロットと配役のデータをAIに分析させた。すると、男性は「裕福な」、女性は「美しい」という言葉が、役の特徴として突出して現れた。

「お金持ちの男性と美しい女性がよい、という価値観が根付いているのか、そうした男女を描いた作品がヒットするからかはわかりませんが、実際に配役の特徴は偏っていた。AIはそれをはっきりさせただけです」、 「CEO」を画像検索すると、白人男性ばかりが出てくる、と報告されたこともあった。CEO(Chief Executive Officer)は、企業の最高経営責任者を指す言葉に過ぎず、性別や人種の概念は含まない。だが、現実にCEOには男性が多く、女性が占める割合は8%程度と言われる。

「性別や人種をバランスよく提示すべき」という理屈は人間の倫理で、AIは与えたデータの傾向に従って結果を表示しただけ。理想を反映したければ、さまざまな性別や人種のCEOの画像データを大量にAIに与えなければならない。AIに求めるものを決めるのは、あくまで人間なのだ。

「自動運転車のトロッコ問題が有名ですね。トロッコに乗り、このまま進めば人をはねる、方向転換すれば通行人をひく、急ブレーキをかければ運転手が危ない、といった場合、どの選択肢を選ぶかには、正解がありません。人間でも答えを出せない倫理的問題は、AIも答えを出せないのです」

 AIが消費と結びつくと、現実の偏りが意図しない形で顕著になることもある。

 アメリカのアマゾンプライムの当日配達対応地域が、白人の多い地域に偏っていて、黒人の居住地区が外れているという状態も報告された。

「アルゴリズムに人種差別の意図はなく、利益が上がる地域を算出するとそうなったということでしょう。しかし、その結果が、連邦住宅局が指定した黒人居住地区の地図と重なり、歴史的な差別が、現代の情報でも可視化されてしまった」

 AIが人の悪意を吸い込むことさえある。2013年には、ハーバード大学教授のラタニア・スウィーニーさんが、アフリカ系の名前が犯罪に関する言葉に紐づけて表示されやすい事例を報告している。

 アメリカには、公犯罪歴を集めてデータベース化したサイトがある。人名を検索すると、検索結果にこれらサイトの広告が上がってくる。ヨーロッパ系の名前のジル・シュナイダーには「見つけました」が、アフリカ系のラタニア・ファレルには「逮捕されましたか?」という文字が結びつけられていた。

「文言は実際の犯罪歴とは関係ありませんでした。人種差別の意図はなく、AIは単純に広告の収益率を最大化する選択をしただけです。広告を見た人たちが、アフリカ系の名前と犯罪に関連する言葉の組み合わせを、多くクリックしていた。AIは、社会の悪意を、意図せず吸い込んでしまったのです」

 こうした問題は、いま、世界的に大きな注目を集めている。昨年12月、ニューラル情報処理システム学会(NIPS)で、ニューヨーク大学教授でマイクロソフトリサーチ主任研究員のケイト・クロフォードさんが、機械学習とバイアスについて問題提起した。

「データ分析技術は、与信、採用、保険、裁判など、さまざまな局面で利用されるようになってきています。性別や人種などの影響を受けず、公平性をいかに確保するかは非常に重要な問題です」

「データに基づくだけでは、現実世界を投影するだけのAIしか生まれません。どうしたいかの部分に人が介在しないと、理想には近づけません」

0 件のコメント:

コメントを投稿