AIはなぜ“差別”するのか? AI時代の“人間”の生き方~シンポジウム「AIと差別」成原慧さん基調講演
#差別 #AI
AI(人工知能)は業務の効率化・家電・結婚相談所など、わたしたちのさまざまな生活の場面で活躍しており、生活に切り離せないものになっています。わたしたちの生活を便利で良質なものにしてくれる一方で、AIが人間を差別することも問題になっています。
例えば2018年、AmazonのAI採用システムが、過去の採用者に男性が多かったため、女性の応募者を差別するという“欠陥”が発覚し、運用が取りやめられたことは、報道で見たことがある人も多いと思います。
こうした事例は人々に恐怖を与え、便利なものではずのAIの活用を遠ざけてしまいます。なぜ、AIは差別をしてしまうのでしょうか。
2020年3月、反差別国際運動(IMADR)主催のオンラインシンポジウム「AIと差別」が行われました。AIに関する法的問題の研究をされている九州大学准教授の成原慧さんの講演で、「AIによる差別をどのように防ぐのか」「AIが生活と切り離せない中、人間は差別とどう向き合うべきか」といったお話がされました。
本記事では、シンポジウムの内容を一部レポートします。
【登壇者プロフィール】
成原 慧(なりはら・さとし)
九州大学准教授、情報法。1982年生まれ。東京大学大学院情報学環助教、総務省情報通信政策研究所主任研究官等を経て、2018年3月より現職。主著に、『表現の自由とアーキテクチャ』(勁草書房、2016年)、『AIがつなげる社会-AIネットワーク時代の法・政策』(共編著、弘文堂、2017年)、『人工知能と人間・社会』(共編著、勁草書房、2020年)など 。
なぜ、AIは差別をするのか
AIとは何かという定義では、実は専門家でも意見の一致がされていないといいます。
成原慧さん(以下、成原)「AIは日本語では人工知能と訳されることが一般的です。人工的に作られた知能ということで、『知能を有する機械』と定義をされる方もいますが、そこでは『知能とは何か』という問題が生じます。
『知能とは何か』という点はまだまだ探求されていて、必ずしも解明されているわけではありません。従来のソフトウェアやシステムはプログラムをされた通りに動いていましたが、AIはデータから学習をする点に特徴があるといわれています。そうした特徴から、総務省のAIネットワーク社会推進会議のガイドラインでは、AIは『データ・情報・知識の学習等により、利活用の過程を通じて自らの出力やプログラムを変化させる機能を有するソフトウェア』などと定義されています。AIは利用される中でデータから学習をし、継続的に出力や機能を変化させるので、開発者であっても予見や制御が困難であったり不可能であったりというリスクが生じるおそれがあります」
冒頭に記したAmazonの採用AIだけでなく、2016年にも、Microsoftの「Tay」というTwitter用のAIのbotが、ユーザーとの会話を通じてユダヤ人差別を学習してしまったということもありました。なぜ、AIは差別をしてしまうのか。成原さんは以下の4つの理由を挙げました。
①「アルゴリズムの設計の問題」
②「データからの学習によるもの」
③「属性に基づく判断に伴う差別」
④「人間によるAIへの責任転嫁」
成原「まず、①『アルゴリズムの設計』の問題については、製作者が差別的意図をもってAIを設計したことによって、その設計に伴いAIが差別的な判断をしてしまうということです。ただ、悪意を持った開発者というのは多くいるわけではないと思います。悪意によるものより、意図をせずに差別をしてしまう可能性の方が考えられます。例えばAIの設計に関わったメンバーが男性ばかりの場合、どうしても女性の視点が欠けてしまい女性にとって不利な設計をしてしまうおそれがあります。そのため、アメリカやヨーロッパではAIの開発にもダイバーシティ(多様性)を確保することが必要といわれています。
また、②『データからの学習による差別』には3つの原因があると考えられています。
(1)『データの代表性』
(2)『既存のバイアスの再生産』
(3)『不正確な予測に基づく差別』
(1)『データの代表性』については、AIの学習に使われるデータが適切に代表されていないことによって生じます。例えば、アメリカのボストン市での実験で、道路の破損などの状況を報告できるスマホアプリを開発し、ユーザーが身の回りの道路の破損を発見したら、市に報告してもらうことを想定していました。ところが、スマホを持っている富裕層や、スマホアプリで報告できる情報リテラシーの高い人が多い地域の報告が集まりやすく、低所得の人が多い地域はかえって補修されにくくなってしまった、という問題が指摘されています。
(2)『既存のバイアスの再生産』については、Amazonの採用AIの例のように、大元のデータに男性の採用者が多かったという偏りがあったため、AIが差別的な判断を行い、バイアスを再生産してしまったことがありました。
(3)『不正確な予測に基づく差別』については、AIは相関関係を発見するのは得意なものの、因果関係を導くことは得意ではないという特徴から生じます。例を挙げると、Googleの検索リクエストに基づいてインフルエンザの発生地を予想したところ、徐々に不正確な予測が示されるようになったということがあります。最初は正確に予測されていたものが次第に不正確に予測されるメカニズムによって、特定のマイノリティに差別的な判断が行われる恐れもあります。
そして、③『属性に基づく判断に伴う差別』は、AIが個人の属性に基づいて、個人を判断するところにあります。その人自身ではなく、その人が帰属する集団の特性(性別・年齢・職業など)に基づき、個人の能力を予測・評価するため一人ひとりの代替不可能な“かげかえのなさ”を無視してしまうという問題があるのです。属性での判断は今までも、例えば就職活動において出身大学で判断されるというようなことは行われてきたので、AI固有の問題とは言えません。ですが、人間が採用するなら、ある会社で不採用になっても他社に採用される可能性があるものの、多くの会社の採用において同じAIが用いられることによって、どの会社でも不採用になってしまうというおそれがあります。属性での判断は、個人の努力で人生の選択や修正が困難になってしまう問題が考えられます。
④『人間によるAIへの責任転嫁』とは、最終的には人間が判断して起こった差別にもかかわらず、『AIがこういう判断をしたので、わたしはこういう差別的な判断をしてしまいました』と、判断根拠がAIにあると言い訳に使われてしまうケースのことです。これは現在、学問の場ではあまり議論されていないのですが、私はこういうケースが実際にはあると感じています」
成原さんのお話を受け、コメンテイターの東京大学特任助教・明戸隆浩さんは、下記のような事例を説明しました。
明戸隆浩さん「人間によるAIへの責任転嫁について、最近の例を2つあげます。1つ目は、東京大学大学院情報学環特任准教授であった大澤昇平氏の中国人差別発言です。『弊社では中国人を採用しない』とSNSに投稿、炎上し、その後の謝罪文で<一連のツイートの中で当職が言及した、特定国籍の人々の能力に関する当社の判断は、限られたデータにAIが適合し過ぎた結果である「過学習」によるものです>としていました。
2つ目は、3月に開業した高輪ゲートウェイ駅の乗換案内版システム『AIさくらさん』です。セクハラ質問に回答することや、隣に設置された男性AIのユージさんと対照的だったことからハラスメントを助長するものだと批判され、現在ではAIさくらさんの回答は修正されています。
ただ、AIさくらさんは批判を受けて回答を修正しているところから、AIの定義である『学習による変化』には当てはまりません。この時点で、AIさくらさんは本当にAIなのでしょうか。厳密にはAIでないものがAIとして認識され、場合によっては悪いイメージを拡散させてしまうという問題が見えてきます」
サイゾー人気記事ランキングすべて見る
イチオシ記事