論文の概要: Understanding Unfairness in Fraud Detection through Model and Data Bias
Interactions
- arxiv url: http://arxiv.org/abs/2207.06273v1
- Date: Wed, 13 Jul 2022 15:18:30 GMT
- ステータス: 処理完了
- システム内更新日: 2022-07-14 16:06:07.538429
- Title: Understanding Unfairness in Fraud Detection through Model and Data Bias
Interactions
- Title(参考訳): モデルとデータバイアスの相互作用による不正検出の理解
- Authors: Jos\'e Pombal, Andr\'e F. Cruz, Jo\~ao Bravo, Pedro Saleiro, M\'ario
A.T. Figueiredo, Pedro Bizarro
- Abstract要約: アルゴリズムの不公平性は、データ内のモデルとバイアスの間の相互作用に起因すると我々は主張する。
フェアネスブラインドMLアルゴリズムが示す公平さと正確さのトレードオフに関する仮説を、異なるデータバイアス設定下で検討する。
- 参考スコア(独自算出の注目度): 4.159343412286401
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In recent years, machine learning algorithms have become ubiquitous in a
multitude of high-stakes decision-making applications. The unparalleled ability
of machine learning algorithms to learn patterns from data also enables them to
incorporate biases embedded within. A biased model can then make decisions that
disproportionately harm certain groups in society -- limiting their access to
financial services, for example. The awareness of this problem has given rise
to the field of Fair ML, which focuses on studying, measuring, and mitigating
unfairness in algorithmic prediction, with respect to a set of protected groups
(e.g., race or gender). However, the underlying causes for algorithmic
unfairness still remain elusive, with researchers divided between blaming
either the ML algorithms or the data they are trained on. In this work, we
maintain that algorithmic unfairness stems from interactions between models and
biases in the data, rather than from isolated contributions of either of them.
To this end, we propose a taxonomy to characterize data bias and we study a set
of hypotheses regarding the fairness-accuracy trade-offs that fairness-blind ML
algorithms exhibit under different data bias settings. On our real-world
account-opening fraud use case, we find that each setting entails specific
trade-offs, affecting fairness in expected value and variance -- the latter
often going unnoticed. Moreover, we show how algorithms compare differently in
terms of accuracy and fairness, depending on the biases affecting the data.
Finally, we note that under specific data bias conditions, simple
pre-processing interventions can successfully balance group-wise error rates,
while the same techniques fail in more complex settings.
- Abstract(参考訳): 近年,機械学習アルゴリズムは多種多様な意思決定アプリケーションにおいて普及している。
データからパターンを学習する機械学習アルゴリズムの非並列的な能力は、バイアスを組み込むこともできる。
バイアスのあるモデルは、例えば金融サービスへのアクセスを制限するような、社会の特定のグループに不均等に有害な決定を下すことができる。
この問題に対する認識は、アルゴリズム予測における不公平性を研究、測定、緩和することに焦点を当て、保護されたグループ(例えば人種や性別)のセットに関して、公正なmlの分野を生み出した。
しかし、アルゴリズムの不公平の根本的な原因はいまだに解明されておらず、研究者はmlアルゴリズムを非難するか、トレーニングしたデータを非難するかに分かれている。
本研究では,アルゴリズム的不公平性は,モデル間の相互作用とデータ内のバイアスに起因し,両者の孤立した貢献に起因している。
そこで本研究では,データバイアスを特徴付ける分類法を提案し,フェアネスブラインドMLアルゴリズムが示すフェアネス-精度トレードオフに関する一連の仮説を,異なるデータバイアス設定下で検討する。
現実世界の口座開放詐欺のユースケースでは、各設定には特定のトレードオフが含まれており、期待値とばらつきの公平性に影響を与えています。
さらに,データに影響を与えるバイアスに応じて,精度と公平性の観点からアルゴリズムの違いを示す。
最後に、特定のデータバイアス条件下では、単純な前処理の介入がグループレベルのエラー率のバランスをとるのに成功し、同じ手法がより複雑な設定では失敗する。
関連論文リスト
- Is it Still Fair? A Comparative Evaluation of Fairness Algorithms through the Lens of Covariate Drift [17.498879317113385]
データ分散ドリフトとその公正度アルゴリズムとメトリクスへの影響について検討する。
場合によっては、データ分布のドリフトは、いわゆるフェアモデルにおいて、フェアネスの深刻な劣化を引き起こすことがある。
本研究の成果から,データ分散ドリフトが公正性アルゴリズムにもたらすいくつかの政策的含意を合成する。
論文 参考訳(メタデータ) (2024-09-19T03:18:12Z) - Outlier Detection Bias Busted: Understanding Sources of Algorithmic Bias through Data-centric Factors [28.869581543676947]
unsupervised outlier detection (OD) は、金融、セキュリティ等に多くの応用がある。
この研究は、データ中心の異なる要因の下で検出モデルを監査することで、ODの不公平な源泉に光を当てることを目的としている。
この研究に基づくODアルゴリズムは、すべて公正な落とし穴を示すが、どの種類のデータバイアスがより影響を受けやすいかは異なる。
論文 参考訳(メタデータ) (2024-08-24T20:35:32Z) - Editable Fairness: Fine-Grained Bias Mitigation in Language Models [52.66450426729818]
個々人の社会的偏見をきめ細かなキャリブレーションを可能にする新しいデバイアス・アプローチであるFairness Stamp(FAST)を提案する。
FASTは最先端のベースラインを超え、デバイアス性能が優れている。
これは、大きな言語モデルにおける公平性を達成するためのきめ細かいデバイアス戦略の可能性を強調している。
論文 参考訳(メタデータ) (2024-08-07T17:14:58Z) - AIM: Attributing, Interpreting, Mitigating Data Unfairness [40.351282126410545]
既存の公正機械学習(FairML)の研究は、モデル予測における差別バイアスの軽減に重点を置いている。
トレーニングデータからバイアスや偏見を反映したサンプルの発見という,新たな研究課題について検討する。
サンプルバイアスの測定と対策のための実用的なアルゴリズムを提案する。
論文 参考訳(メタデータ) (2024-06-13T05:21:10Z) - Learning for Counterfactual Fairness from Observational Data [62.43249746968616]
公正な機械学習は、人種、性別、年齢などの特定の保護された(感受性のある)属性によって記述されるある種のサブグループに対して、学習モデルのバイアスを取り除くことを目的としている。
カウンターファクトフェアネスを達成するための既存の手法の前提条件は、データに対する因果モデルの事前の人間の知識である。
本研究では,新しいフレームワークCLAIREを提案することにより,因果関係を付与せずに観測データから対実的に公正な予測を行う問題に対処する。
論文 参考訳(メタデータ) (2023-07-17T04:08:29Z) - D-BIAS: A Causality-Based Human-in-the-Loop System for Tackling
Algorithmic Bias [57.87117733071416]
D-BIASは、人間のループ内AIアプローチを具現化し、社会的バイアスを監査し軽減する視覚対話型ツールである。
ユーザは、因果ネットワークにおける不公平な因果関係を識別することにより、グループに対する偏見の存在を検出することができる。
それぞれのインタラクション、例えばバイアスのある因果縁の弱体化/削除は、新しい(偏りのある)データセットをシミュレートするために、新しい方法を用いている。
論文 参考訳(メタデータ) (2022-08-10T03:41:48Z) - Prisoners of Their Own Devices: How Models Induce Data Bias in
Performative Prediction [4.874780144224057]
偏見のあるモデルは、社会の特定のグループに不均等に害を与える決定を下すことができる。
多くの作業は静的ML環境での不公平さを測定することに費やされているが、動的でパフォーマンスのよい予測は行っていない。
本稿では,データのバイアスを特徴付ける分類法を提案する。
論文 参考訳(メタデータ) (2022-06-27T10:56:04Z) - Fair Group-Shared Representations with Normalizing Flows [68.29997072804537]
本研究では,異なるグループに属する個人を1つのグループにマッピングできる公正表現学習アルゴリズムを開発した。
提案手法は,他の公正表現学習アルゴリズムと競合することを示す。
論文 参考訳(メタデータ) (2022-01-17T10:49:49Z) - Can Active Learning Preemptively Mitigate Fairness Issues? [66.84854430781097]
データセットバイアスは、機械学習における不公平な原因の1つです。
不確実性に基づくALで訓練されたモデルが保護クラスの決定において公平であるかどうかを検討する。
また,勾配反転(GRAD)やBALDなどのアルゴリズム的公正性手法の相互作用についても検討する。
論文 参考訳(メタデータ) (2021-04-14T14:20:22Z) - Metrics and methods for a systematic comparison of fairness-aware
machine learning algorithms [0.0]
この研究はこの種の最も包括的なものである。
フェアネス、予測性能、キャリブレーション品質、28種類のモデリングパイプラインの速度を考慮に入れている。
また,フェアネスを意識したアルゴリズムは,予測力の低下を伴わずにフェアネスを誘導できることがわかった。
論文 参考訳(メタデータ) (2020-10-08T13:58:09Z) - Fairness in Semi-supervised Learning: Unlabeled Data Help to Reduce
Discrimination [53.3082498402884]
機械学習の台頭における投機は、機械学習モデルによる決定が公正かどうかである。
本稿では,未ラベルデータのラベルを予測するための擬似ラベリングを含む,前処理フェーズにおける公平な半教師付き学習の枠組みを提案する。
偏見、分散、ノイズの理論的分解分析は、半教師付き学習における差別の異なる源とそれらが公平性に与える影響を浮き彫りにする。
論文 参考訳(メタデータ) (2020-09-25T05:48:56Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。