「黒人の方が自動運転車に轢かれやすい」ーーこんなショッキングな研究結果が公表されました。
米国のジョージア工科大学の研究者によるものですが、その論文本文はとても歯が立たないので、それを紹介したVoxの記事でおおよそのことがわかりました。
この研究は、自動運転車車の近くにいる人間を認識して、止まったり、曲がったりするするのに使われる最新鋭のobject-detection(物体検出)システムがどのくらい正確に機能するかを調べたものです。
使われたのは歩行者が写っている膨大なデータセット。それを肌合いの色合いで明るい(白人)から暗い(黒人)に分類して、最新システムがどう判別するかを調べたました。(下の写真でLSとはLight Skin、DSはDark Skinを意味します)
その検証手法の詳細はよくわかりませんが、システム開発にあたるエンジニアも、同じようにして物体検出アルゴリズムを作り上げているそうです。
その結果を分析すると、暗い肌色グループの正確な発見率は、明るい肌色グループに比べて平均で5%低かったのです。それは、画像が撮影された時刻などの条件を変えても変わらなかったそうです。
なぜか?この研究に関わった一人は、「人間のバイアスが、自動化された意思決定システムに、染み込んでいるからだ。それをアルゴリズムバイアスという」と説明します。
どういうことかというと、アルゴリズムシステムは、供給された例から”学習”するので、例えば、学習段階で「黒人女性」の例が十分に得られないと、展開時に、黒人女性を認識するのが困難になるという仕組みらしいのです。
自動運転車に採用されているシステムがどんなデータセットを元にしているかは公表されていないので、確かなことは言えないにしても、人種的な偏りがあったことが、この不均衡に繋がった可能性があることを論文は示唆しているようです。
この点について、明確に指摘する文章がありました。あのBMWのベンチャーキャピタル、BMWiVentureの幹部であるSamantha Huangさんが昨年10月にMediumに載せた「自動運転車は人種差別主義者か?AI(人工知能)におけるバイアスの危険性」とする一文です。
これは、彼女があるスターチアップの自動運転車の後部座席に座って、タブレットに映し出されるAIの働きをモニターしていた体験を元にしています。
車が歩行者に近づくたびに画面にはアラートが出ました。その数は何ダースにも及んだそう。ところが、二人だけ、アラートが出ませんでした。「それは二人とも黒人男性だった」 何十人中の2人。なんだかジョージア工科大の「5%」に符合するかも。
そこでこう指摘します。「エンジニアが集めた膨大な画像のデータセットは、その大部分は明るい肌色のもので、ダークな肌のものが少なすぎたせいだ」と言い切ります。
なぜ、そうなるのか。「この種の開発に当たるエンジニアは統計的に言えば白人かアジア人なので、データセットに人種的な広がりがなくても疑問を持たない」と明快。
具体的な数字もあげています。科学や工学に従事する大多数は白人で66.6%、アジア人は20.6%なのに対し、黒人は4.8%、ヒスパニック6.0%に止まっている、と。
だから、これらのエンジニアに人種的に多様なバックグラウンドがあれば、明るい肌色のデータセットだけで開発する可能性が低く、多様な肌色のデータセットが使われていただろう、と指摘しています。
Voxの記事でも、アルゴリズムバイアスを防ぐには、新技術開発チームは人種的に多様であるべきだ、とし、「仮に、白人男性だけのチームだったら、黒人女性のイメージをどうチェックするかが困難なはずだ」と主張しています。
高度なAI技術といえども、根っことのところでは人間臭い要素に左右されることを教えられました。
コメントを残す