論文の概要: FAIROD: Fairness-aware Outlier Detection
- arxiv url: http://arxiv.org/abs/2012.03063v1
- Date: Sat, 5 Dec 2020 15:58:38 GMT
- ステータス: 処理完了
- システム内更新日: 2021-05-22 12:13:10.751024
- Title: FAIROD: Fairness-aware Outlier Detection
- Title(参考訳): FAIROD:Fairness-aware Outlier Detection
- Authors: Shubhranshu Shekhar, Neil Shah, Leman Akoglu
- Abstract要約: フェアネス・アンド・アウトリエ検出(OD: Fairness and Outlier Detection, OD)は、特定の人口の希少な少数サンプルを見つけるためのODの目的である。
フェアネスを意識した外れ値検出器であるFairODを提案する。
多様な合成および実世界のデータセットに対する大規模な実験は、FairODが保護された変数に対して公平な結果を生み出すことを示している。
- 参考スコア(独自算出の注目度): 18.57945677416028
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Fairness and Outlier Detection (OD) are closely related, as it is exactly the
goal of OD to spot rare, minority samples in a given population. When being a
minority (as defined by protected variables, e.g. race/ethnicity/sex/age) does
not reflect positive-class membership (e.g. criminal/fraud), however, OD
produces unjust outcomes. Surprisingly, fairness-aware OD has been almost
untouched in prior work, as fair machine learning literature mainly focus on
supervised settings. Our work aims to bridge this gap. Specifically, we develop
desiderata capturing well-motivated fairness criteria for OD, and
systematically formalize the fair OD problem. Further, guided by our
desiderata, we propose FairOD, a fairness-aware outlier detector, which has the
following, desirable properties: FairOD (1) does not employ disparate treatment
at test time, (2) aims to flag equal proportions of samples from all groups
(i.e. obtain group fairness, via statistical parity), and (3) strives to flag
truly high-risk fraction of samples within each group. Extensive experiments on
a diverse set of synthetic and real world datasets show that FairOD produces
outcomes that are fair with respect to protected variables, while performing
comparable to (and in some cases, even better than) fairness-agnostic detectors
in terms of detection performance.
- Abstract(参考訳): フェアネス・アンド・アウトリエ検出(OD: Fairness and Outlier Detection, OD)は、特定の人口の希少な少数サンプルを見つけるためのODの目的である。
少数派である場合(保護変数で定義される場合など)
race/ethnicity/sex/age)は、ポジティブクラスのメンバーシップ(例)を反映しない。
しかし、ODは不正な結果をもたらす。
驚いたことに、フェアネスを意識したodは、以前の作業ではほとんど触れられておらず、公正な機械学習の文献は、主に監督された設定に焦点を当てている。
私たちの仕事は、このギャップを埋めることを目的としています。
具体的には,odに対する十分に動機づけられた公平性基準を捉えたdesiderataを開発し,fair od問題を体系的に定式化する。
さらに,desiderataに導かれたfairodは,以下の望ましい特性を有するフェアネスアウェアな異常検出器である。fairod (1)試験時に異種処理を行わず,(2)すべてのグループから採取したサンプルの等しい比率(すなわち,試験時)にフラグを付けることを目的としている。
グループフェアネス(統計パリティ)を取得し、(3)各グループ内で真に高いリスクのサンプルをフラグ付けしようとする。
多様な合成および実世界のデータセットに関する広範囲な実験により、fairodは保護された変数に対して公正な結果を生み出す一方で、検出性能の観点からはフェアネス非依存の検出器に匹敵する(場合によっては、より優れている)。
関連論文リスト
- Equal Opportunity of Coverage in Fair Regression [50.76908018786335]
我々は、予測の不確実性の下で公正な機械学習(ML)を研究し、信頼性と信頼性のある意思決定を可能にする。
本研究は,(1)類似した結果の異なる集団に対するカバー率が近いこと,(2)人口全体のカバー率が一定水準にあること,の2つの特性を達成することを目的としたカバーの平等機会(EOC)を提案する。
論文 参考訳(メタデータ) (2023-11-03T21:19:59Z) - Fair-CDA: Continuous and Directional Augmentation for Group Fairness [48.84385689186208]
公正な制約を課すための詳細なデータ拡張戦略を提案する。
グループ間の感性のある特徴の遷移経路のモデルを正規化することにより、グループフェアネスを実現することができることを示す。
提案手法はデータ生成モデルを仮定せず,精度と公平性の両方に優れた一般化を実現する。
論文 参考訳(メタデータ) (2023-04-01T11:23:00Z) - DualFair: Fair Representation Learning at Both Group and Individual
Levels via Contrastive Self-supervision [73.80009454050858]
この研究は、DualFairと呼ばれる自己教師型モデルを提示し、学習された表現から性別や人種などのセンシティブな属性をデバイアスすることができる。
我々のモデルは、グループフェアネスと対実フェアネスという2つのフェアネス基準を共同で最適化する。
論文 参考訳(メタデータ) (2023-03-15T07:13:54Z) - Achieving Counterfactual Fairness for Anomaly Detection [20.586768167592112]
本稿では,2つの相,反実データ生成と公正な異常検出からなる,反実的公正な異常検出(CFAD)フレームワークを提案する。
合成データセットと2つの実データセットの実験結果から、CFADは異常を効果的に検出し、反ファクト的公正性を確保することができることが示された。
論文 参考訳(メタデータ) (2023-03-04T04:45:12Z) - Hierarchical Semi-Supervised Contrastive Learning for
Contamination-Resistant Anomaly Detection [81.07346419422605]
異常検出は、通常のデータ分布から逸脱したサンプルを特定することを目的としている。
コントラスト学習は、異常の効果的な識別を可能にする表現のサンプル化に成功している。
汚染耐性異常検出のための新しい階層型半教師付きコントラスト学習フレームワークを提案する。
論文 参考訳(メタデータ) (2022-07-24T18:49:26Z) - RepFair-GAN: Mitigating Representation Bias in GANs Using Gradient
Clipping [2.580765958706854]
生成モデルに対する新しい公平性の概念を、同じ保護属性を共有する生成されたサンプルの分布の観点から定義する。
この公平性の概念は、データセットが等しく表現されたグループを含む場合でも破られることを示す。
判別器におけるグループワイド勾配ノルムクリッピングにより群勾配ノルムを制御することにより,より公正なデータ生成につながることを示す。
論文 参考訳(メタデータ) (2022-07-13T14:58:48Z) - How Robust is Your Fairness? Evaluating and Sustaining Fairness under
Unseen Distribution Shifts [107.72786199113183]
CUMA(CUrvature Matching)と呼ばれる新しいフェアネス学習手法を提案する。
CUMAは、未知の分布シフトを持つ未知の領域に一般化可能な頑健な公正性を達成する。
提案手法を3つの人気フェアネスデータセットで評価する。
論文 参考訳(メタデータ) (2022-07-04T02:37:50Z) - Fairness-aware Model-agnostic Positive and Unlabeled Learning [38.50536380390474]
フェアプル(FairPUL)という,フェアネスを意識したポジティブ・アンラベル学習手法を提案する。
2つの集団の個体を二分分類するために、同様の正の率と偽の正の率を達成することを目指している。
我々のフレームワークは、分類誤差と公正度の両方の観点から統計的に一貫性があることが証明されている。
論文 参考訳(メタデータ) (2022-06-19T08:04:23Z) - Minimax Group Fairness: Algorithms and Experiments [18.561824632836405]
我々は,極小群フェアネスのための有意収束性オラクル効率学習アルゴリズムを提供する。
我々のアルゴリズムは回帰と分類の両方に当てはまる。
ミニマックスフェアネスが厳密で、平等な結果の概念よりも強く好ましい経験的ケースを示す。
論文 参考訳(メタデータ) (2020-11-05T21:42:56Z) - Algorithmic Decision Making with Conditional Fairness [48.76267073341723]
条件付きフェアネスを、条件付きフェアネス変数の条件付けにより、より健全なフェアネス計量として定義する。
本稿では,アルゴリズム決定の精度と公平性のトレードオフを追跡するために,導出条件公正規則化器(DCFR)を提案する。
論文 参考訳(メタデータ) (2020-06-18T12:56:28Z) - Fair Outlier Detection [5.320087179174425]
多値感性属性に対する公平な外乱検出の課題を考察する。
本手法は, 周辺部におけるオフレイア検出のための一般的なLOF定式化にインスパイアされたフェアオフレイア検出法であるFairLOFを提案する。
論文 参考訳(メタデータ) (2020-05-20T08:02:41Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。