論文の概要: FAIROD: Fairness-aware Outlier Detection
- arxiv url: http://arxiv.org/abs/2012.03063v1
- Date: Sat, 5 Dec 2020 15:58:38 GMT
- ステータス: 処理完了
- システム内更新日: 2021-05-22 12:13:10.751024
- Title: FAIROD: Fairness-aware Outlier Detection
- Title(参考訳): FAIROD:Fairness-aware Outlier Detection
- Authors: Shubhranshu Shekhar, Neil Shah, Leman Akoglu
- Abstract要約: フェアネス・アンド・アウトリエ検出(OD: Fairness and Outlier Detection, OD)は、特定の人口の希少な少数サンプルを見つけるためのODの目的である。
フェアネスを意識した外れ値検出器であるFairODを提案する。
多様な合成および実世界のデータセットに対する大規模な実験は、FairODが保護された変数に対して公平な結果を生み出すことを示している。
- 参考スコア(独自算出の注目度): 18.57945677416028
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Fairness and Outlier Detection (OD) are closely related, as it is exactly the
goal of OD to spot rare, minority samples in a given population. When being a
minority (as defined by protected variables, e.g. race/ethnicity/sex/age) does
not reflect positive-class membership (e.g. criminal/fraud), however, OD
produces unjust outcomes. Surprisingly, fairness-aware OD has been almost
untouched in prior work, as fair machine learning literature mainly focus on
supervised settings. Our work aims to bridge this gap. Specifically, we develop
desiderata capturing well-motivated fairness criteria for OD, and
systematically formalize the fair OD problem. Further, guided by our
desiderata, we propose FairOD, a fairness-aware outlier detector, which has the
following, desirable properties: FairOD (1) does not employ disparate treatment
at test time, (2) aims to flag equal proportions of samples from all groups
(i.e. obtain group fairness, via statistical parity), and (3) strives to flag
truly high-risk fraction of samples within each group. Extensive experiments on
a diverse set of synthetic and real world datasets show that FairOD produces
outcomes that are fair with respect to protected variables, while performing
comparable to (and in some cases, even better than) fairness-agnostic detectors
in terms of detection performance.
- Abstract(参考訳): フェアネス・アンド・アウトリエ検出(OD: Fairness and Outlier Detection, OD)は、特定の人口の希少な少数サンプルを見つけるためのODの目的である。
少数派である場合(保護変数で定義される場合など)
race/ethnicity/sex/age)は、ポジティブクラスのメンバーシップ(例)を反映しない。
しかし、ODは不正な結果をもたらす。
驚いたことに、フェアネスを意識したodは、以前の作業ではほとんど触れられておらず、公正な機械学習の文献は、主に監督された設定に焦点を当てている。
私たちの仕事は、このギャップを埋めることを目的としています。
具体的には,odに対する十分に動機づけられた公平性基準を捉えたdesiderataを開発し,fair od問題を体系的に定式化する。
さらに,desiderataに導かれたfairodは,以下の望ましい特性を有するフェアネスアウェアな異常検出器である。fairod (1)試験時に異種処理を行わず,(2)すべてのグループから採取したサンプルの等しい比率(すなわち,試験時)にフラグを付けることを目的としている。
グループフェアネス(統計パリティ)を取得し、(3)各グループ内で真に高いリスクのサンプルをフラグ付けしようとする。
多様な合成および実世界のデータセットに関する広範囲な実験により、fairodは保護された変数に対して公正な結果を生み出す一方で、検出性能の観点からはフェアネス非依存の検出器に匹敵する(場合によっては、より優れている)。
関連論文リスト
- Outlier Detection Bias Busted: Understanding Sources of Algorithmic Bias through Data-centric Factors [28.869581543676947]
unsupervised outlier detection (OD) は、金融、セキュリティ等に多くの応用がある。
この研究は、データ中心の異なる要因の下で検出モデルを監査することで、ODの不公平な源泉に光を当てることを目的としている。
この研究に基づくODアルゴリズムは、すべて公正な落とし穴を示すが、どの種類のデータバイアスがより影響を受けやすいかは異なる。
論文 参考訳(メタデータ) (2024-08-24T20:35:32Z) - Thinking Racial Bias in Fair Forgery Detection: Models, Datasets and Evaluations [63.52709761339949]
最初に、Fair Forgery Detection(FairFD)データセットと呼ばれる専用のデータセットをコントリビュートし、SOTA(Public State-of-the-art)メソッドの人種的偏見を証明する。
我々は、偽りの結果を避けることができる平均的メトリクスと実用正規化メトリクスを含む新しいメトリクスを設計する。
また,有効で堅牢な後処理技術であるBias Pruning with Fair Activations (BPFA)も提案する。
論文 参考訳(メタデータ) (2024-07-19T14:53:18Z) - AIM: Attributing, Interpreting, Mitigating Data Unfairness [40.351282126410545]
既存の公正機械学習(FairML)の研究は、モデル予測における差別バイアスの軽減に重点を置いている。
トレーニングデータからバイアスや偏見を反映したサンプルの発見という,新たな研究課題について検討する。
サンプルバイアスの測定と対策のための実用的なアルゴリズムを提案する。
論文 参考訳(メタデータ) (2024-06-13T05:21:10Z) - Minimax Optimal Fair Classification with Bounded Demographic Disparity [28.936244976415484]
本稿では,2つの保護群による公正二項分類の統計的基礎について考察する。
有限サンプルを用いると、グループ固有の受容閾値を推定する必要があるため、追加のコストが発生することを示す。
オフセットを持つグループワイドしきい値法であるFairBayes-DDP+を提案する。
論文 参考訳(メタデータ) (2024-03-27T02:59:04Z) - Equal Opportunity of Coverage in Fair Regression [50.76908018786335]
我々は、予測の不確実性の下で公正な機械学習(ML)を研究し、信頼性と信頼性のある意思決定を可能にする。
本研究は,(1)類似した結果の異なる集団に対するカバー率が近いこと,(2)人口全体のカバー率が一定水準にあること,の2つの特性を達成することを目的としたカバーの平等機会(EOC)を提案する。
論文 参考訳(メタデータ) (2023-11-03T21:19:59Z) - Fair-CDA: Continuous and Directional Augmentation for Group Fairness [48.84385689186208]
公正な制約を課すための詳細なデータ拡張戦略を提案する。
グループ間の感性のある特徴の遷移経路のモデルを正規化することにより、グループフェアネスを実現することができることを示す。
提案手法はデータ生成モデルを仮定せず,精度と公平性の両方に優れた一般化を実現する。
論文 参考訳(メタデータ) (2023-04-01T11:23:00Z) - DualFair: Fair Representation Learning at Both Group and Individual
Levels via Contrastive Self-supervision [73.80009454050858]
この研究は、DualFairと呼ばれる自己教師型モデルを提示し、学習された表現から性別や人種などのセンシティブな属性をデバイアスすることができる。
我々のモデルは、グループフェアネスと対実フェアネスという2つのフェアネス基準を共同で最適化する。
論文 参考訳(メタデータ) (2023-03-15T07:13:54Z) - Achieving Counterfactual Fairness for Anomaly Detection [20.586768167592112]
本稿では,2つの相,反実データ生成と公正な異常検出からなる,反実的公正な異常検出(CFAD)フレームワークを提案する。
合成データセットと2つの実データセットの実験結果から、CFADは異常を効果的に検出し、反ファクト的公正性を確保することができることが示された。
論文 参考訳(メタデータ) (2023-03-04T04:45:12Z) - How Robust is Your Fairness? Evaluating and Sustaining Fairness under
Unseen Distribution Shifts [107.72786199113183]
CUMA(CUrvature Matching)と呼ばれる新しいフェアネス学習手法を提案する。
CUMAは、未知の分布シフトを持つ未知の領域に一般化可能な頑健な公正性を達成する。
提案手法を3つの人気フェアネスデータセットで評価する。
論文 参考訳(メタデータ) (2022-07-04T02:37:50Z) - Fairness-aware Model-agnostic Positive and Unlabeled Learning [38.50536380390474]
フェアプル(FairPUL)という,フェアネスを意識したポジティブ・アンラベル学習手法を提案する。
2つの集団の個体を二分分類するために、同様の正の率と偽の正の率を達成することを目指している。
我々のフレームワークは、分類誤差と公正度の両方の観点から統計的に一貫性があることが証明されている。
論文 参考訳(メタデータ) (2022-06-19T08:04:23Z) - Algorithmic Decision Making with Conditional Fairness [48.76267073341723]
条件付きフェアネスを、条件付きフェアネス変数の条件付けにより、より健全なフェアネス計量として定義する。
本稿では,アルゴリズム決定の精度と公平性のトレードオフを追跡するために,導出条件公正規則化器(DCFR)を提案する。
論文 参考訳(メタデータ) (2020-06-18T12:56:28Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。