論文の概要: D-BIAS: A Causality-Based Human-in-the-Loop System for Tackling
Algorithmic Bias
- arxiv url: http://arxiv.org/abs/2208.05126v1
- Date: Wed, 10 Aug 2022 03:41:48 GMT
- ステータス: 処理完了
- システム内更新日: 2022-08-11 13:30:43.863384
- Title: D-BIAS: A Causality-Based Human-in-the-Loop System for Tackling
Algorithmic Bias
- Title(参考訳): D-BIAS:アルゴリズムバイアスに対処するための因果性に基づくHuman-in-the-Loopシステム
- Authors: Bhavya Ghai and Klaus Mueller
- Abstract要約: D-BIASは、人間のループ内AIアプローチを具現化し、社会的バイアスを監査し軽減する視覚対話型ツールである。
ユーザは、因果ネットワークにおける不公平な因果関係を識別することにより、グループに対する偏見の存在を検出することができる。
それぞれのインタラクション、例えばバイアスのある因果縁の弱体化/削除は、新しい(偏りのある)データセットをシミュレートするために、新しい方法を用いている。
- 参考スコア(独自算出の注目度): 57.87117733071416
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: With the rise of AI, algorithms have become better at learning underlying
patterns from the training data including ingrained social biases based on
gender, race, etc. Deployment of such algorithms to domains such as hiring,
healthcare, law enforcement, etc. has raised serious concerns about fairness,
accountability, trust and interpretability in machine learning algorithms. To
alleviate this problem, we propose D-BIAS, a visual interactive tool that
embodies human-in-the-loop AI approach for auditing and mitigating social
biases from tabular datasets. It uses a graphical causal model to represent
causal relationships among different features in the dataset and as a medium to
inject domain knowledge. A user can detect the presence of bias against a
group, say females, or a subgroup, say black females, by identifying unfair
causal relationships in the causal network and using an array of fairness
metrics. Thereafter, the user can mitigate bias by acting on the unfair causal
edges. For each interaction, say weakening/deleting a biased causal edge, the
system uses a novel method to simulate a new (debiased) dataset based on the
current causal model. Users can visually assess the impact of their
interactions on different fairness metrics, utility metrics, data distortion,
and the underlying data distribution. Once satisfied, they can download the
debiased dataset and use it for any downstream application for fairer
predictions. We evaluate D-BIAS by conducting experiments on 3 datasets and
also a formal user study. We found that D-BIAS helps reduce bias significantly
compared to the baseline debiasing approach across different fairness metrics
while incurring little data distortion and a small loss in utility. Moreover,
our human-in-the-loop based approach significantly outperforms an automated
approach on trust, interpretability and accountability.
- Abstract(参考訳): aiの台頭に伴い、アルゴリズムは、性別、人種などに基づく社会バイアスを含むトレーニングデータから基礎となるパターンを学習するようになる。
雇用、医療、法執行などドメインへのそのようなアルゴリズムの展開は、機械学習アルゴリズムにおける公正性、説明責任、信頼、解釈可能性に関する深刻な懸念を引き起こしている。
この問題を緩和するために,テーブル型データセットから社会バイアスを監査・緩和するための,ループ内aiアプローチを具現化するビジュアルインタラクティブツールd-biasを提案する。
グラフィカル因果モデルを使用して、データセット内のさまざまな特徴間の因果関係を表現し、ドメイン知識を注入する媒体として利用する。
ユーザは、因果ネットワーク内の不公平な因果関係を特定し、公正なメトリクスの配列を使用することで、例えば女性やサブグループ、例えば黒人女性に対するバイアスの存在を検出することができる。
その後、不公平な因果縁に作用してバイアスを軽減することができる。
各インタラクション、例えば偏りのある因果縁の弱化/削除では、システムは現在の因果モデルに基づいて新しい(偏りのある)データセットをシミュレートするために新しい方法を使用する。
ユーザは、異なる公平度メトリクス、ユーティリティメトリクス、データ歪み、および基礎となるデータ分散に対するインタラクションの影響を視覚的に評価することができる。
満足すれば、debiasedデータセットをダウンロードして、下流アプリケーションで使用して、より公平な予測を行うことができる。
D-BIASを3つのデータセットの実験および正式なユーザスタディにより評価した。
d-biasは,データ歪みが少なく,ユーティリティの損失が少なく,公平度指標の異なるベースラインデバイアスアプローチと比較して有意にバイアス軽減に寄与することがわかった。
さらに,本手法は,信頼,解釈可能性,説明責任に対する自動アプローチよりも優れている。
関連論文リスト
- Outlier Detection Bias Busted: Understanding Sources of Algorithmic Bias through Data-centric Factors [28.869581543676947]
unsupervised outlier detection (OD) は、金融、セキュリティ等に多くの応用がある。
この研究は、データ中心の異なる要因の下で検出モデルを監査することで、ODの不公平な源泉に光を当てることを目的としている。
この研究に基づくODアルゴリズムは、すべて公正な落とし穴を示すが、どの種類のデータバイアスがより影響を受けやすいかは異なる。
論文 参考訳(メタデータ) (2024-08-24T20:35:32Z) - Fast Model Debias with Machine Unlearning [54.32026474971696]
ディープニューラルネットワークは多くの現実世界のシナリオでバイアスのある振る舞いをする。
既存のデバイアス法は、バイアスラベルやモデル再トレーニングのコストが高い。
バイアスを特定し,評価し,除去するための効率的なアプローチを提供する高速モデル脱バイアスフレームワーク(FMD)を提案する。
論文 参考訳(メタデータ) (2023-10-19T08:10:57Z) - Learning for Counterfactual Fairness from Observational Data [62.43249746968616]
公正な機械学習は、人種、性別、年齢などの特定の保護された(感受性のある)属性によって記述されるある種のサブグループに対して、学習モデルのバイアスを取り除くことを目的としている。
カウンターファクトフェアネスを達成するための既存の手法の前提条件は、データに対する因果モデルの事前の人間の知識である。
本研究では,新しいフレームワークCLAIREを提案することにより,因果関係を付与せずに観測データから対実的に公正な予測を行う問題に対処する。
論文 参考訳(メタデータ) (2023-07-17T04:08:29Z) - Understanding Unfairness in Fraud Detection through Model and Data Bias
Interactions [4.159343412286401]
アルゴリズムの不公平性は、データ内のモデルとバイアスの間の相互作用に起因すると我々は主張する。
フェアネスブラインドMLアルゴリズムが示す公平さと正確さのトレードオフに関する仮説を、異なるデータバイアス設定下で検討する。
論文 参考訳(メタデータ) (2022-07-13T15:18:30Z) - Does Data Repair Lead to Fair Models? Curating Contextually Fair Data To
Reduce Model Bias [10.639605996067534]
コンテキスト情報は、より優れた表現を学び、精度を向上させるために、ディープニューラルネットワーク(DNN)にとって貴重なキューである。
COCOでは、多くの対象カテゴリーは、男性よりも男性の方がはるかに高い共起性を持ち、男性に有利なDNNの予測を偏見を与える可能性がある。
本研究では, 変動係数を用いたデータ修復アルゴリズムを導入し, 保護されたクラスに対して, 公平かつ文脈的にバランスの取れたデータをキュレートする。
論文 参考訳(メタデータ) (2021-10-20T06:00:03Z) - Balancing out Bias: Achieving Fairness Through Training Reweighting [58.201275105195485]
自然言語処理におけるバイアスは、性別や人種などの著者の特徴を学習するモデルから生じる。
既存のバイアスの緩和と測定方法は、著者の人口統計学と言語変数の相関を直接考慮していない。
本稿では,インスタンス再重み付けを用いたバイアス対策法を提案する。
論文 参考訳(メタデータ) (2021-09-16T23:40:28Z) - Improving Fairness of AI Systems with Lossless De-biasing [15.039284892391565]
AIシステムのバイアスを緩和して全体的な公正性を高めることが重要な課題となっている。
我々は,不利益グループにおけるデータの不足を対象とする情報損失のない脱バイアス手法を提案する。
論文 参考訳(メタデータ) (2021-05-10T17:38:38Z) - Can Active Learning Preemptively Mitigate Fairness Issues? [66.84854430781097]
データセットバイアスは、機械学習における不公平な原因の1つです。
不確実性に基づくALで訓練されたモデルが保護クラスの決定において公平であるかどうかを検討する。
また,勾配反転(GRAD)やBALDなどのアルゴリズム的公正性手法の相互作用についても検討する。
論文 参考訳(メタデータ) (2021-04-14T14:20:22Z) - Balancing Biases and Preserving Privacy on Balanced Faces in the Wild [50.915684171879036]
現在の顔認識(FR)モデルには、人口統計バイアスが存在する。
さまざまな民族と性別のサブグループにまたがる偏見を測定するために、我々のバランス・フェイススをWildデータセットに導入します。
真偽と偽のサンプルペアを区別するために1点のスコアしきい値に依存すると、最適以下の結果が得られます。
本稿では,最先端ニューラルネットワークから抽出した顔特徴を用いたドメイン適応学習手法を提案する。
論文 参考訳(メタデータ) (2021-03-16T15:05:49Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。