論文の概要: Improving Fairness of AI Systems with Lossless De-biasing
- arxiv url: http://arxiv.org/abs/2105.04534v1
- Date: Mon, 10 May 2021 17:38:38 GMT
- ステータス: 処理完了
- システム内更新日: 2021-05-11 16:28:50.992080
- Title: Improving Fairness of AI Systems with Lossless De-biasing
- Title(参考訳): ロスレスデバイアスによるAIシステムの公正性向上
- Authors: Yan Zhou, Murat Kantarcioglu, Chris Clifton
- Abstract要約: AIシステムのバイアスを緩和して全体的な公正性を高めることが重要な課題となっている。
我々は,不利益グループにおけるデータの不足を対象とする情報損失のない脱バイアス手法を提案する。
- 参考スコア(独自算出の注目度): 15.039284892391565
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: In today's society, AI systems are increasingly used to make critical
decisions such as credit scoring and patient triage. However, great convenience
brought by AI systems comes with troubling prevalence of bias against
underrepresented groups. Mitigating bias in AI systems to increase overall
fairness has emerged as an important challenge. Existing studies on mitigating
bias in AI systems focus on eliminating sensitive demographic information
embedded in data. Given the temporal and contextual complexity of
conceptualizing fairness, lossy treatment of demographic information may
contribute to an unnecessary trade-off between accuracy and fairness,
especially when demographic attributes and class labels are correlated. In this
paper, we present an information-lossless de-biasing technique that targets the
scarcity of data in the disadvantaged group. Unlike the existing work, we
demonstrate, both theoretically and empirically, that oversampling
underrepresented groups can not only mitigate algorithmic bias in AI systems
that consistently predict a favorable outcome for a certain group, but improve
overall accuracy by mitigating class imbalance within data that leads to a bias
towards the majority class. We demonstrate the effectiveness of our technique
on real datasets using a variety of fairness metrics.
- Abstract(参考訳): 今日の社会では、信用スコアや患者トリアージといった重要な意思決定にAIシステムがますます使われています。
しかし、AIシステムによってもたらされる大きな利便性は、少数派グループに対する偏見の波及に悩まされる。
AIシステムのバイアスを緩和して全体的な公正性を高めることが重要な課題となっている。
AIシステムにおけるバイアス軽減に関する既存の研究は、データに埋め込まれたセンシティブな人口統計情報の排除に焦点を当てている。
公平性の概念化の時間的および文脈的複雑さを考えると、人口統計情報の損失処理は、特に人口統計属性とクラスラベルが関連付けられている場合、正確性と公平性の間の不必要なトレードオフをもたらす可能性がある。
本稿では,不利グループにおけるデータの不足を対象とする情報損失のない脱バイアス手法を提案する。
既存の研究と異なり、理論的にも経験的にも、過度に表現されているグループをオーバーサンプリングすることは、特定のグループに有利な結果を常に予測するAIシステムにおけるアルゴリズムバイアスを軽減するだけでなく、多数派への偏見をもたらすデータ内のクラス不均衡を緩和することで全体的な精度を向上させることができる。
様々なフェアネス指標を用いて実データセット上での手法の有効性を実証する。
関連論文リスト
- Data quality dimensions for fair AI [0.0]
我々は,AIシステムにおけるバイアスの問題について,情報品質の観点から考察する。
性別分類誤りにおけるバイアス軽減ツールの潜在的な改善について述べる。
バイアス軽減ツールで実装するデータ品質次元の識別は、より公平性を達成するのに役立つかもしれない。
論文 参考訳(メタデータ) (2023-05-11T16:48:58Z) - Fairness And Bias in Artificial Intelligence: A Brief Survey of Sources,
Impacts, And Mitigation Strategies [11.323961700172175]
この調査論文は、AIの公平性とバイアスに関する簡潔で包括的な概要を提供する。
我々は、データ、アルゴリズム、人間の決定バイアスなどのバイアス源をレビューする。
偏りのあるAIシステムの社会的影響を評価し,不平等の持続性と有害なステレオタイプの強化に着目した。
論文 参考訳(メタデータ) (2023-04-16T03:23:55Z) - Human-Centric Multimodal Machine Learning: Recent Advances and Testbed
on AI-based Recruitment [66.91538273487379]
人間中心のアプローチでAIアプリケーションを開発する必要性には、ある程度のコンセンサスがある。
i)ユーティリティと社会的善、(ii)プライバシとデータ所有、(iii)透明性と説明責任、(iv)AIによる意思決定プロセスの公正性。
異種情報ソースに基づく現在のマルチモーダルアルゴリズムは、データ中の機密要素や内部バイアスによってどのように影響を受けるかを検討する。
論文 参考訳(メタデータ) (2023-02-13T16:44:44Z) - D-BIAS: A Causality-Based Human-in-the-Loop System for Tackling
Algorithmic Bias [57.87117733071416]
D-BIASは、人間のループ内AIアプローチを具現化し、社会的バイアスを監査し軽減する視覚対話型ツールである。
ユーザは、因果ネットワークにおける不公平な因果関係を識別することにより、グループに対する偏見の存在を検出することができる。
それぞれのインタラクション、例えばバイアスのある因果縁の弱体化/削除は、新しい(偏りのある)データセットをシミュレートするために、新しい方法を用いている。
論文 参考訳(メタデータ) (2022-08-10T03:41:48Z) - Understanding Unfairness in Fraud Detection through Model and Data Bias
Interactions [4.159343412286401]
アルゴリズムの不公平性は、データ内のモデルとバイアスの間の相互作用に起因すると我々は主張する。
フェアネスブラインドMLアルゴリズムが示す公平さと正確さのトレードオフに関する仮説を、異なるデータバイアス設定下で検討する。
論文 参考訳(メタデータ) (2022-07-13T15:18:30Z) - Statistical discrimination in learning agents [64.78141757063142]
統計的差別は、訓練人口のバイアスとエージェントアーキテクチャの両方の関数としてエージェントポリシーに現れる。
我々は、リカレントニューラルネットワークを使用するエージェントによる差別の低減と、トレーニング環境のバイアスの低減が示される。
論文 参考訳(メタデータ) (2021-10-21T18:28:57Z) - MultiFair: Multi-Group Fairness in Machine Learning [52.24956510371455]
機械学習におけるマルチグループフェアネスの研究(MultiFair)
この問題を解決するために,汎用的なエンドツーエンドのアルゴリズムフレームワークを提案する。
提案するフレームワークは多くの異なる設定に一般化可能である。
論文 参考訳(メタデータ) (2021-05-24T02:30:22Z) - Supercharging Imbalanced Data Learning With Energy-based Contrastive
Representation Transfer [72.5190560787569]
コンピュータビジョンにおいて、長い尾のデータセットからの学習は、特に自然画像データセットの繰り返しのテーマである。
本稿では,データ生成機構がラベル条件と特徴分布の間で不変であるメタ分散シナリオを提案する。
これにより、因果データインフレーションの手順を利用してマイノリティクラスの表現を拡大できる。
論文 参考訳(メタデータ) (2020-11-25T00:13:11Z) - Bias in Multimodal AI: Testbed for Fair Automatic Recruitment [73.85525896663371]
異種情報ソースに基づく現在のマルチモーダルアルゴリズムは、データ中の機密要素や内部バイアスによってどのように影響を受けるかを検討する。
我々は、性別や人種の偏りを意識的に評価したマルチモーダルな合成プロファイルを用いて、自動求人アルゴリズムを訓練する。
我々の方法論と結果は、一般により公平なAIベースのツール、特により公平な自動採用システムを生成する方法を示している。
論文 参考訳(メタデータ) (2020-04-15T15:58:05Z) - A survey of bias in Machine Learning through the prism of Statistical
Parity for the Adult Data Set [5.277804553312449]
偏見を自動決定にどのように導入できるかを理解することの重要性を示す。
まず、公正学習問題、特に二項分類設定における数学的枠組みについて述べる。
そこで,本研究では,現実およびよく知られた成人所得データセットの標準差分効果指標を用いて,偏見の有無を定量化することを提案する。
論文 参考訳(メタデータ) (2020-03-31T14:48:36Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。