ひろげよう人権|東京人権啓発企業連絡会

クローズアップ

有識者から当会広報誌「明日へ」に寄稿していただいた記事の転載です

成原 慧:AIと人権 ―「AIによる差別」と公平性

プロフィール

九州大学准教授
成原 慧(なりはら さとし)

1982年、愛知県生まれ。九州大学法学研究院准教授。東京大学大学院情報学環助教、総務省情報通信政策研究所主任研究官などを経て、2018年より現職。専門は情報法。
著書に『表現の自由とアーキテクチャ』(勁草書房、2016年)、『AIと憲法』(共著、日本経済新聞出版、2018年)、『AIで変わる法と社会』(共著、岩波書店、2020年)などがある 。

1.はじめに

近年では、インターネットを通じて社会生活のさまざまな領域においてデータが収集されることにより、「ビッグデータ」と呼ばれる膨大なデータが集積されるようになっています。また、ビッグデータに基づいて、人工知能(AI)が学習し、分析を行うことにより、社会生活に大きなインパクトを及ぼすようになってきています。産業界でも、AIが自動運転、医療、人事、金融などさまざまな場面で活用され、便利で効率的なサービスが提供されるようになっています。他方で、AIにより女性やマイノリティの人々に不公平な判断が行われるなど、「AIによる差別」も問題として認識されるようになっています。そこで、本稿では、「AIによる差別」のメカニズムを明らかにした上で、それを防ぐ方法を概観するとともに、「AIによる差別」に向き合うことを通じて、より人権を尊重した公平なビジネスや社会を実現していくことができるという展望を示したいと思います。

図1

2.なぜ「AIによる差別」が起きるのか

AIは、データからの学習により自らの出力やプログラムを変化させる性質を有しています。それゆえ、AIは、データから学習することにより自らの機能を継続的に向上させていくことができるのです。反面で、このような性質により、AIは、開発者が予見し制御することが不可能ないし困難なリスクを生み出すおそれがあります。例えば、マイクロソフトの開発したAIを用いたチャットボットは、Twitterでのユーザーらとの会話から学習することにより、ヒトラーを礼賛したり、ヘイトスピーチを発するようになってしまい、緊急停止されました。最近の韓国でも、スタートアップ企業が開発したAIを用いたチャットボットが、メッセンジャーにおける恋人間の対話データから学習した結果、性的少数者に対して差別的な発言を行ったとして批判を受け、サービスが停止されています。これらの事件も示唆しているように、AIは、開発者の意図にかかわらず、学習したデータの偏りなどを受けて、差別的な判断を行ってしまうおそれがあります。

図2

AIは、人事・採用の判断、融資・保険の審査、量刑判断などの場面で活用されるようになっていますが、その際に差別的な判断を行ってしまうおそれがあると指摘されています。「AIによる差別」の主な原因としては、
(1)アルゴリズムの設計のバイアス
(2)データの代表性の欠如
(3)データに内在する既存の社会のバイアス

 をあげることができます。

(1)は、アルゴリズムの設計において開発者が差別的な意図をもってアルゴリズムを設計することなどにより生じます。例えば、AIの開発者が特定の人種や民族に対して偏見を持っていて、特定の人種や民族の人々に対して不利になるようにプログラムを書いた結果、そのように設計されたAIが差別的な判断を行ってしまうといったケースが想定されます。もっとも、現実にはこのような悪意を持った開発者は多くないはずで、現実の問題になることは限られているでしょう。他方で、アルゴリズムの設計の際には、必ずしも差別的な意図をもって開発したわけではないものの、意図せずして差別的なアルゴリズムを生み出してしまうという事態も考えられます。例えば、AIを開発する企業のエンジニアが男性だけで構成されている場合には、ともすると女性の視点が欠けてしまいがちで、無意識のうちに女性にとって不利なアルゴリズムの設計をしてしまうという可能性も考えられます。

(2)アルゴリズムが適切に設計されたとしても、先に述べたように、AIは利用される段階で偏ったデータから学習することによって、差別的な判断を行ってしまうおそれがあります。そこで、AIの学習に用いられるデータの代表性に配慮することが必要になります。つまり、AIの学習に用いられるデータの中に多様なコミュニティのデータが適切に代表されていないと、AIが差別的な判断を行ってしまうおそれがあるのです。例えば、顔画像を認識するAIを開発する際に、白人の顔画像のデータを中心に学習させると、黒人やアジア系の人の顔を正確に認識しにくくなくなってしまうおそれがあります。また、スマホのアプリを通じて住民から調査を行う場合、スマホを保有していないことが多い低所得者や高齢者のニーズが反映されにくくなってしまうおそれにも注意する必要があります。

(3)現実の社会を適切に代表するデータであっても、現実の社会自体にバイアスがある場合には、それを反映してAIが差別的な判断を行ってしまうおそれがあります。つまり、データの元になっている社会の構造自体に不公平なバイアスがあると、そうした従来の社会の差別的な構造をデータが反映し、それを学習したAIが差別を再生産してしまうおそれがあるのです。例えば、自社の採用において過去の応募者に男性が多数を占める場合に、過去の応募者のエントリーシートのデータを元に応募者のエントリーシートを評価するAIを開発すると、AIが男性の応募者を優遇し、女性の応募者を不利に扱うおそれがあることが明らかになっています。また、原因は特定されていないものの、検索エンジンで、黒人に使われることが多い人名を検索すると、白人に使われることが多い人名を検索した場合よりも、逮捕に関する広告が表示されやすいという問題や、AIにより算定された女性のクレジットカードの利用限度額が男性の利用限度額よりも低くなる傾向があるといった問題も生じています。

*コンピュータが問題を解決するための方法や手順のこと


図3

3.「AIによる差別」をいかに防ぐか

これまで見てきたような「AIによる差別」が生じていることを踏まえ、「AIによる差別」を防止するためのルール作りや技術開発が国内外で進められています。近年では国際的にAIに関する原則・指針が策定されるようになっていますが、以上のような問題を念頭に、日米欧の政府機関・学会・市民団体やG20・OECDなど国際会議・国際機関の策定した代表的なAI関係の原則・指針においてもAIの判断の公平性の確保や差別の防止を求めるものが多くなっています。例えば、総務省AIネットワーク社会推進会議が2018年に取りまとめた「AI利活用原則」では、「公平性の原則」が掲げられ、AIの利用者等に「個人が不当に差別されないよう配慮する」ことが求められています。その解説では、「AIの学習等に用いられるデータの代表性やデータに内在する社会的なバイアスに留意」することが求められています。また、欧州委員会が2019年に策定した「信頼に値するAIのための倫理ガイドライン」では、基本権および倫理原則を具体化した要請の一つとして、「多様性、非差別および公平性」が掲げられ、その内容として、データに含まれる歴史的なバイアス、データの不完全性、AIの開発(プログラミング等)におけるバイアスなどに起因する差別を回避することなどが求められています。企業が「AIによる差別」を防止するためには、こうしたAIに関する原則・指針の内容を参照することが期待されます。

先ほど紹介した原則は基本的に法的拘束力のない倫理的な原則ですが、「AIによる差別」は法的にはどのような問題があるのでしょうか。日本国憲法14条1項は、「すべて国民は、法の下に平等であって、人種、信条、性別、社会的身分又は門地により、政治的、経済的又は社会的関係において、差別されない」と定めています。したがって、国や地方公共団体がAIを利用して個人の権利や利益に関わる判断を行う場合には、「AIによる差別」を防止することが憲法上も要請されているといえます。他方で、憲法の人権規定は、国や地方公共団体と個人の関係を規律するものであり、民間企業と個人など私人相互の関係には直接適用されないと考えられているため、企業が「AIによる差別」を引き起こしたからといって、直ちに憲法14条の平等原則に違反するとはいい難いでしょう。もっとも、企業がAIを利用する場合であっても、民法の一般条項などを介して憲法14条の定める平等原則の趣旨が間接的に適用され、「AIによる差別」が違法とされる余地もあります。また、労働法や各種の業法の規制に基づき、企業が「AIによる差別」を防止することが法的に要請される場合もあると考えられます。

また、「AIによる差別」を防ぐためには、技術的な仕組みも重要になります。例えば、人種や性別など差別の要因となるセンシティブな情報に依存せずにAIがデータを分析する手法の開発も試みられています。もっとも、人種や性別のデータを利用しなかったとしても、住所や職業など人種や性別と相関関係にあるデータを利用することによって、結果として差別的な判断が行われるおそれも指摘されており、AIの判断の公平性を確保するためには利用するデータの範囲や性質について慎重な考慮が必要です。また、製品・サービスの設計の段階でプライバシーの保護や差別の防止などに配慮する「X・バイ・デザイン」と呼ばれる手法も取り入れられるようになっています。もっとも、AIは利用される段階でデータから学習して変化していくため、開発者が設計段階で人権に十分配慮して設計したとしても、偏りのあるデータを学習することなどにより人権を侵害するようになるおそれもあります。製品・サービスの設計段階で人権に配慮することはもちろん重要ですが、AIが利用される段階でも、AIに与えるデータの質に注意したり、AIを利用する従業員に倫理研修を行うなどして、業務プロセス全体で人権に配慮することが求められます。

個々の企業のレベルでもAIの判断の公平性を確保するための取組が進んでいます。国内外の多くの大企業が、自社におけるAIの開発や利用のあり方を定める原則・指針を策定するようになり、企業によるAIの公平性を確保するための技術の開発・提供も進められています。例えば、Googleは、機械学習に用いられるデータの公平性などについて検証するツール「What-If Tool」を開発・提供しています。IBMも、AIのバイアスを検知し軽減するためのオープンソースのツール「AI fairness 360」を開発・提供しています。日本企業では、NECが、AIを開発したり、データを利用する際に、プライバシーの保護や差別の防止など人権に配慮して設計を行う、「ヒューマンライツ・バイ・デザイン」と呼ばれる取組を開始しています。また、ソニーは、製品・サービスの設計段階などにおいてAI倫理の観点からリスク審査を行う体制の構築を進めています。

図4

4.おわりに

これまで見てきたように、「AIによる差別」として注目されている問題の多くは、AI自体が差別を生み出したというよりも、人間がこれまで生み出してきた差別の構造を、AIがデータを通じて学習し、差別を再生産したものということができます。すなわち、「AIによる差別」は、我々の社会における差別を可視化し、差別への対応のあり方を問い直しているのです。また、 「AIによる差別」は、私たちに、そもそも「バイアス」とは何か、「公平性」とは何かという根本的な問いも投げかけているように思われます。人工知能学会が2019年に公表した「機械学習と公平性に関する声明」も、「『何が公平か』については、科学技術や工学だけの問題ではなく、現在の人類社会が何を求めているか、という価値観の問題抜きには語れません」「実は『公平性とは何か』を機械学習の言葉で数理的に突き詰めていくと、多数のバリエーションがあることがわかります。人々が何を公平と考えるか、様々な基準を機械学習の言葉で表現しなおすことによって、『公平』という概念をより明確なものにしていくこともできるのです。このように、私たちは、機械学習によって公平性に起きうる問題を防ぐだけでなく、機械学習をきっかけとして公平性のあり方を定義、議論することにも真摯に取り組んでいます」と述べています。企業も、顧客や従業員などさまざまなステークホルダーの声に耳を傾けながら、「AIによる差別」を防止するとともに、「AIによる差別」をきっかけに可視化された従来のビジネスにおける差別的な構造やバイアスを見直し、より人権を尊重した公平なビジネスや社会のあり方を模索していくことが期待されます。

図5

参考文献
∙成原慧「AI時代の差別と公平性」反差別国際運動(編)『AIと差別』(2020年、解放出版社)
∙山本龍彦(編)『AIと憲法』(日本経済新聞出版社、2018年)
∙弥永真生=宍戸常寿(編)『ロボット・AIと法―ロボット・AI時代の法はどうなる』(有斐閣、2018年)

2021.8 掲載

一覧へ戻る