国際女性デーに因み、ジェンダー・バイアスについて
今日(3月8日)は、国連によって制定された「国際女性デー」。今年も、日本を含む世界の多くの国々で行事が行われています。
男女平等という原則を確認する初の国際的な合意は、1945年に署名された国連憲章だと言われています。それ以来、国連を始め、各国の様々な機関で女性の地位を向上させるための取り組みが行われ、この国際デーは、女性の権利と政治的、経済的分野への参加に対する支援を盛り立てていくリマインダーの位置づけにもなっているように思います。
しかしながら、男女平等に関する国連憲章が出されてから80年近くが経った現在でも、この領域は課題が少なくありません。
毎年、国連の事務総長はこの国際デーに寄せて、メッセージを出しています。今年のアントニオ・グテーレス国連事務総長のメッセージの中で、強調されたのは、
ジェンダー平等を推進するためのテクノロジーとイノベーションの必要性です。
メッセージで述べられている下記の部分は、ここ数年、AI倫理やAIガバナンス、アンコンシャス・バイアスに関わっている私の問題意識と重なる部分があるので少しご紹介したいと思います。
『今日、科学・技術・工学・数学の分野において、労働人口に占める女性の割合は、3分の1未満です。そして、新たなテクノロジーの開発において、そこに携わる女性が少なければ、始めから差別が織り込まれるおそれがあります。私たちがデジタル格差を解消し、科学技術における女性と女児の割合を高めなければならない理由は、ここにあります。』
これまで世の中に存在しつづけてきたジェンダー・ギャップは、人間のアンコンシャス・バイアスと相互に影響を与え合うとともに、世の中に存在するデータにも影響を与えている可能性が高いと言えます。言い換えれば、世の中のデータにも、ジェンダー・ギャップというバイアスが存在すると言えるのです。そして、問題なのは、
そのデータを使って学習したAIアルゴリズムが、偏見を増幅したり、誤りを引き起こす可能性があるということなのです。
一つ、例を挙げてみましょう。
2018年にAmazon社で開発が進められたAI人材採用システムが、中止を余儀なくされたのをご存じでしょうか?それはAmazonが期待を込めて取り組んでいたプロジェクトで、10年間の過去の応募者の履歴書をAIに学習させ、新たな応募者の履歴書をAIに判断させようというものでした。
でも、そのAI人材採用システムが、
「ソフトウェア開発などの技術職においては、男性を採用するのが好ましい!」
という判断をするという問題を抱えていることが判明したのです。
原因は、AIが学習したデータにありました。学習用データの技術職の殆どが、実は、男性からの応募者だったのです。そのことに気づかないままAIに学習させてしまったことにより、履歴書に「女性」に関する単語があるだけでAIが評価を下げる判断をするようになってしまったのです。幸いなことにAmazon社はこの問題に気づき、本質的な対処が困難であることから、システムの開発を中止しました。
昨年来、ChatGPTを始めとする生成AIの公開が注目を集めています。これまで言われ続けてきた、「人とAIが協調する時代」が、一歩現実に近づき、更に加速される機運を感じます。
そして、このような時代だからこそ、データに含まれているジェンダー・ギャップに気づく眼と、そのデータを使って学習したAIの問題に気づく眼をどれだけ持てるかが、益々重要になっていくのではないでしょうか?
データに潜むジェンダー・バイアスについては、下記の本に詳しく述べられていますので、興味のある方は読んでみると参考になると思います。
キャロライン・クリアド=ペレス著 神崎 朗子訳 (2020) 『存在しない女たち』 河出書房新社
データやAIアルゴリズムに潜むジェンダー・ギャップに関する問題に気づく眼を持つためには、科学技術における女性の割合を高めることを含め、多様性を高めること、そして、一人ひとりが物事の本質に興味を持つ好奇心としなやかな心を育むことが何よりも重要になっていくと思います。
kaoru.chujo@sowinsight.com (中条 薫)