論文の概要: Outlier Detection Bias Busted: Understanding Sources of Algorithmic Bias through Data-centric Factors
- arxiv url: http://arxiv.org/abs/2408.13667v1
- Date: Sat, 24 Aug 2024 20:35:32 GMT
- ステータス: 処理完了
- システム内更新日: 2024-08-27 18:29:37.123844
- Title: Outlier Detection Bias Busted: Understanding Sources of Algorithmic Bias through Data-centric Factors
- Title(参考訳): Outlier Detection Bias Busted: データ中心因子によるアルゴリズムバイアスのソース理解
- Authors: Xueying Ding, Rui Xi, Leman Akoglu,
- Abstract要約: unsupervised outlier detection (OD) は、金融、セキュリティ等に多くの応用がある。
この研究は、データ中心の異なる要因の下で検出モデルを監査することで、ODの不公平な源泉に光を当てることを目的としている。
この研究に基づくODアルゴリズムは、すべて公正な落とし穴を示すが、どの種類のデータバイアスがより影響を受けやすいかは異なる。
- 参考スコア(独自算出の注目度): 28.869581543676947
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The astonishing successes of ML have raised growing concern for the fairness of modern methods when deployed in real world settings. However, studies on fairness have mostly focused on supervised ML, while unsupervised outlier detection (OD), with numerous applications in finance, security, etc., have attracted little attention. While a few studies proposed fairness-enhanced OD algorithms, they remain agnostic to the underlying driving mechanisms or sources of unfairness. Even within the supervised ML literature, there exists debate on whether unfairness stems solely from algorithmic biases (i.e. design choices) or from the biases encoded in the data on which they are trained. To close this gap, this work aims to shed light on the possible sources of unfairness in OD by auditing detection models under different data-centric factors. By injecting various known biases into the input data -- as pertain to sample size disparity, under-representation, feature measurement noise, and group membership obfuscation -- we find that the OD algorithms under the study all exhibit fairness pitfalls, although differing in which types of data bias they are more susceptible to. Most notable of our study is to demonstrate that OD algorithm bias is not merely a data bias problem. A key realization is that the data properties that emerge from bias injection could as well be organic -- as pertain to natural group differences w.r.t. sparsity, base rate, variance, and multi-modality. Either natural or biased, such data properties can give rise to unfairness as they interact with certain algorithmic design choices.
- Abstract(参考訳): MLの驚くべき成功は、現実の環境でデプロイされる現代的なメソッドの公平性に対する関心を高めている。
しかし、フェアネスの研究は、主に教師付きMLに焦点を当てているが、金融、セキュリティなどにおける多くの応用を含む教師なしの外部検出(OD)はほとんど注目されていない。
いくつかの研究は、公平性向上型ODアルゴリズムを提案したが、基礎となる駆動機構や不公平性の原因を知らないままである。
教師付きML文献の中にも、不公平さがアルゴリズム的バイアス(すなわち設計選択)のみに起因するのか、あるいはトレーニングされたデータに符号化されたバイアスから生じるのかという議論がある。
このギャップを埋めるために、この研究は、データ中心の異なる要因の下で検出モデルの監査を行うことにより、ODの不公平な原因について光を当てることを目的としている。
サンプルサイズの違い、低表現性、特徴測定ノイズ、グループメンバーシップの難易度など、様々な既知のバイアスを入力データに注入することで、研究対象のODアルゴリズムは、どの種類のデータバイアスがより影響を受けやすいかが異なるが、公平な落とし穴があることがわかった。我々の研究で最も注目すべきは、ODアルゴリズムのバイアスが単なるデータバイアスの問題ではないことを示すことである。
自然であれバイアスであれ、そのようなデータ特性は、特定のアルゴリズムの設計選択と相互作用するときに不公平を引き起こす可能性がある。
関連論文リスト
- AIM: Attributing, Interpreting, Mitigating Data Unfairness [40.351282126410545]
既存の公正機械学習(FairML)の研究は、モデル予測における差別バイアスの軽減に重点を置いている。
トレーニングデータからバイアスや偏見を反映したサンプルの発見という,新たな研究課題について検討する。
サンプルバイアスの測定と対策のための実用的なアルゴリズムを提案する。
論文 参考訳(メタデータ) (2024-06-13T05:21:10Z) - The Impact of Differential Feature Under-reporting on Algorithmic Fairness [86.275300739926]
解析的に抽出可能な差分特徴のアンダーレポーティングモデルを提案する。
そして、この種のデータバイアスがアルゴリズムの公正性に与える影響を特徴づける。
我々の結果は、実世界のデータ設定では、アンダーレポートが典型的に格差を増大させることを示している。
論文 参考訳(メタデータ) (2024-01-16T19:16:22Z) - Causality and Independence Enhancement for Biased Node Classification [56.38828085943763]
各種グラフニューラルネットワーク(GNN)に適用可能な新しい因果性・独立性向上(CIE)フレームワークを提案する。
提案手法は,ノード表現レベルでの因果的特徴と突発的特徴を推定し,突発的相関の影響を緩和する。
我々のアプローチCIEは、GNNの性能を大幅に向上するだけでなく、最先端の debiased ノード分類法よりも優れています。
論文 参考訳(メタデータ) (2023-10-14T13:56:24Z) - D-BIAS: A Causality-Based Human-in-the-Loop System for Tackling
Algorithmic Bias [57.87117733071416]
D-BIASは、人間のループ内AIアプローチを具現化し、社会的バイアスを監査し軽減する視覚対話型ツールである。
ユーザは、因果ネットワークにおける不公平な因果関係を識別することにより、グループに対する偏見の存在を検出することができる。
それぞれのインタラクション、例えばバイアスのある因果縁の弱体化/削除は、新しい(偏りのある)データセットをシミュレートするために、新しい方法を用いている。
論文 参考訳(メタデータ) (2022-08-10T03:41:48Z) - More Data Can Lead Us Astray: Active Data Acquisition in the Presence of
Label Bias [7.506786114760462]
提案されたバイアス緩和戦略は、一般的に観察されたラベルに示されるバイアスを見落としている。
まず,教師あり学習システムのコンテキストにおけるラベルバイアスについて概説する。
次に、ラベルバイアスを見渡すと、より多くのデータを集めることでバイアスが増大し、データ収集プロセスで観測されたラベルに依存する公正な制約が問題に対処できないことを実証的に示します。
論文 参考訳(メタデータ) (2022-07-15T19:30:50Z) - Understanding Unfairness in Fraud Detection through Model and Data Bias
Interactions [4.159343412286401]
アルゴリズムの不公平性は、データ内のモデルとバイアスの間の相互作用に起因すると我々は主張する。
フェアネスブラインドMLアルゴリズムが示す公平さと正確さのトレードオフに関する仮説を、異なるデータバイアス設定下で検討する。
論文 参考訳(メタデータ) (2022-07-13T15:18:30Z) - A Sandbox Tool to Bias(Stress)-Test Fairness Algorithms [19.86635585740634]
バイアス注入型サンドボックスツールの概念と実装について, 各種バイアスの公平性について検討する。
既存のツールキットとは異なり、私たちのツールはMLパイプラインに事実上バイアスを注入する制御された環境を提供します。
特に、バイアス注入前において、偏りのない状態の真のラベルに介入した後に生じる予測を比較することで、与えられた治療法が注入されたバイアスを軽減することができるかどうかを検証できる。
論文 参考訳(メタデータ) (2022-04-21T16:12:19Z) - Information-Theoretic Bias Reduction via Causal View of Spurious
Correlation [71.9123886505321]
本稿では,スプリアス相関の因果的解釈による情報理論バイアス測定手法を提案する。
本稿では,バイアス正規化損失を含むアルゴリズムバイアスに対する新しいデバイアスフレームワークを提案する。
提案したバイアス測定とデバイアス法は、多様な現実シナリオで検証される。
論文 参考訳(メタデータ) (2022-01-10T01:19:31Z) - Can Active Learning Preemptively Mitigate Fairness Issues? [66.84854430781097]
データセットバイアスは、機械学習における不公平な原因の1つです。
不確実性に基づくALで訓練されたモデルが保護クラスの決定において公平であるかどうかを検討する。
また,勾配反転(GRAD)やBALDなどのアルゴリズム的公正性手法の相互作用についても検討する。
論文 参考訳(メタデータ) (2021-04-14T14:20:22Z) - Towards causal benchmarking of bias in face analysis algorithms [54.19499274513654]
顔分析アルゴリズムのアルゴリズムバイアスを測定する実験手法を開発した。
提案手法は,一致したサンプル画像の合成トランスクター'を生成することに基づく。
性別分類アルゴリズムの偏見を従来の観察法を用いて分析することにより,本手法の有効性を検証した。
論文 参考訳(メタデータ) (2020-07-13T17:10:34Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。