AIにおける種差別的バイアス AIアプリが助長する動物への差別と不公正

論文概要

 

データとアルゴリズムの中にはバイアスが存在するため、AIアプリを公平なものとするためには、これを減らしていくことが必要である。このために多大な努力が払われているが、その動機となっているのは、バイアスのあるアルゴリズムによる意思決定が女性や有色人種、マイノリティなどに様々な被害をもたらしてきたという重大な事実である。しかし、AIの公平性に関しては盲点が存在しており、それは動物に対する差別に対して鈍感であるということである。

本稿ではAIの公平性に関する現在の研究を批判的に検討する。これは、「種差別的バイアス」について記述したうえで、いくつかのAIシステムに存在する種差別的バイアスを取り上げた初めての検証である。規範的分析に基づいて考察するとともに、いくつかの事例を取り上げ、画像認識・単語の埋め込み・言語モデルについてバイアス検出の標準的な手法を用いて検証する。

我々は、動物は道徳的観点から尊重されるべきであり、動物を差別することは非倫理的であることを強調する。さらに、上記のすべてのAI分野において種差別的バイアスが存在することを明らかにする。主要なAIアプリの多くでは種差別的な偏見が固定化されており、これは特にコンピュータビジョンや自然言語処理の分野で顕著である。いずれの場合も、モデルの学習に使われるデータの中に種差別的なパターンが広く浸透していることがその理由である。

従って、現在のAI技術は動物に対する暴力を永続させ、常態化させることに大きく関与しているといえる。こうした状況を変えるためには、AIの公平性に関する枠組みをより広い範囲で適用し、種差別的なバイアスを減らすための対策を盛り込む必要がある。

AIシステムは、動物に対する暴力を増大させることも減少させることもあり得るが、畜産動物に与える影響は特に大きなものとなる。本稿ではこの問題をAIコミュニティに提起するとともに、AIシステムがこうした影響を及ぼし得ることを強調するものである。

 

原文タイトル:Speciesist bias in AI: how AI applications perpetuate discrimination and unfair outcomes against animals

論文著者:Thilo Hagendorff, Leonie N. Bossert, Yip Fai Tse & Peter Singer

公開日: 2022/08/29 

論文URL:https://doi.org/10.1007/s43681-022-00199-9

別のFACTを探す