論文の概要: Assessing Gender Bias in Predictive Algorithms using eXplainable AI
- arxiv url: http://arxiv.org/abs/2203.10264v1
- Date: Sat, 19 Mar 2022 07:47:45 GMT
- ステータス: 処理完了
- システム内更新日: 2022-03-26 22:23:36.673513
- Title: Assessing Gender Bias in Predictive Algorithms using eXplainable AI
- Title(参考訳): eXplainable AIを用いた予測アルゴリズムにおける性バイアスの評価
- Authors: Cristina Manresa-Yee and Silvia Ramis
- Abstract要約: 予測アルゴリズムは、医学や教育など様々な分野で利益をもたらす強力な可能性を秘めている。
彼らは人間に存在する偏見と偏見を継承することができる。
結果は、不公平な結果を生み出すエラーを体系的に繰り返すことができます。
- 参考スコア(独自算出の注目度): 1.9798034349981162
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Predictive algorithms have a powerful potential to offer benefits in areas as
varied as medicine or education. However, these algorithms and the data they
use are built by humans, consequently, they can inherit the bias and prejudices
present in humans. The outcomes can systematically repeat errors that create
unfair results, which can even lead to situations of discrimination (e.g.
gender, social or racial). In order to illustrate how important is to count
with a diverse training dataset to avoid bias, we manipulate a well-known
facial expression recognition dataset to explore gender bias and discuss its
implications.
- Abstract(参考訳): 予測アルゴリズムは、医学や教育など様々な分野で利益をもたらす強力な可能性を秘めている。
しかし、これらのアルゴリズムとそれらが使用するデータは人間によって構築されるため、人間に存在する偏見や偏見を継承することができる。
結果は、不公平な結果をもたらすエラーを体系的に繰り返すことができ、差別の状況(例えば、性別、社会的、人種)につながることもある。
バイアスを避けるために多種多様なトレーニングデータセットを数えることがいかに重要かを説明するために、表情認識データセットを操作し、性別バイアスを探索し、その意味を議論する。
関連論文リスト
- Mitigating Algorithmic Bias on Facial Expression Recognition [0.0]
バイアス付きデータセットはユビキタスであり、機械学習の課題を提示している。
偏りのあるデータセットの問題は、少数民族グループを扱う際に特に敏感である。
本研究は, 表情認識実験による偏差変化型オートエンコーダを用いて, 偏差を緩和する方法の1つを探る。
論文 参考訳(メタデータ) (2023-12-23T17:41:30Z) - The Impact of Debiasing on the Performance of Language Models in
Downstream Tasks is Underestimated [70.23064111640132]
我々は、幅広いベンチマークデータセットを用いて、複数の下流タスクのパフォーマンスに対するデバイアスの影響を比較した。
実験により、デバイアスの効果は全てのタスクにおいて一貫して見積もられていることが示されている。
論文 参考訳(メタデータ) (2023-09-16T20:25:34Z) - Deep Learning on a Healthy Data Diet: Finding Important Examples for
Fairness [15.210232622716129]
データ駆動予測ソリューションは、主に商用アプリケーションで使われているが、バイアスやステレオタイプに悩まされる傾向がある。
データ拡張は、トレーニングデータセットに反実例を追加することで、性別バイアスを低減する。
拡張データセットのいくつかの例は、公平性には重要でも有害でもないことを示します。
論文 参考訳(メタデータ) (2022-11-20T22:42:30Z) - D-BIAS: A Causality-Based Human-in-the-Loop System for Tackling
Algorithmic Bias [57.87117733071416]
D-BIASは、人間のループ内AIアプローチを具現化し、社会的バイアスを監査し軽減する視覚対話型ツールである。
ユーザは、因果ネットワークにおける不公平な因果関係を識別することにより、グループに対する偏見の存在を検出することができる。
それぞれのインタラクション、例えばバイアスのある因果縁の弱体化/削除は、新しい(偏りのある)データセットをシミュレートするために、新しい方法を用いている。
論文 参考訳(メタデータ) (2022-08-10T03:41:48Z) - Anatomizing Bias in Facial Analysis [86.79402670904338]
既存の顔分析システムでは、特定の集団群に対して偏りのある結果が得られることが示されている。
これらのシステムは、個人の性別、アイデンティティ、肌のトーンに基づいて差別されないようにすることが義務づけられている。
これはAIシステムにおけるバイアスの識別と緩和の研究につながった。
論文 参考訳(メタデータ) (2021-12-13T09:51:13Z) - Statistical discrimination in learning agents [64.78141757063142]
統計的差別は、訓練人口のバイアスとエージェントアーキテクチャの両方の関数としてエージェントポリシーに現れる。
我々は、リカレントニューラルネットワークを使用するエージェントによる差別の低減と、トレーニング環境のバイアスの低減が示される。
論文 参考訳(メタデータ) (2021-10-21T18:28:57Z) - fairadapt: Causal Reasoning for Fair Data Pre-processing [2.1915057426589746]
因果推論前処理方式を実装したR-package fairadaptについて記述する。
結果に対する感度特性から特定の因果経路が識別できないと仮定する適切な緩和について論じる。
論文 参考訳(メタデータ) (2021-10-19T18:48:28Z) - Balancing Biases and Preserving Privacy on Balanced Faces in the Wild [50.915684171879036]
現在の顔認識(FR)モデルには、人口統計バイアスが存在する。
さまざまな民族と性別のサブグループにまたがる偏見を測定するために、我々のバランス・フェイススをWildデータセットに導入します。
真偽と偽のサンプルペアを区別するために1点のスコアしきい値に依存すると、最適以下の結果が得られます。
本稿では,最先端ニューラルネットワークから抽出した顔特徴を用いたドメイン適応学習手法を提案する。
論文 参考訳(メタデータ) (2021-03-16T15:05:49Z) - Towards causal benchmarking of bias in face analysis algorithms [54.19499274513654]
顔分析アルゴリズムのアルゴリズムバイアスを測定する実験手法を開発した。
提案手法は,一致したサンプル画像の合成トランスクター'を生成することに基づく。
性別分類アルゴリズムの偏見を従来の観察法を用いて分析することにより,本手法の有効性を検証した。
論文 参考訳(メタデータ) (2020-07-13T17:10:34Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。