論文の概要: Fair Outlier Detection
- arxiv url: http://arxiv.org/abs/2005.09900v2
- Date: Tue, 4 Aug 2020 20:18:41 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-01 05:03:38.687191
- Title: Fair Outlier Detection
- Title(参考訳): 公正な異常検出
- Authors: Deepak P and Savitha Sam Abraham
- Abstract要約: 多値感性属性に対する公平な外乱検出の課題を考察する。
本手法は, 周辺部におけるオフレイア検出のための一般的なLOF定式化にインスパイアされたフェアオフレイア検出法であるFairLOFを提案する。
- 参考スコア(独自算出の注目度): 5.320087179174425
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: An outlier detection method may be considered fair over specified sensitive
attributes if the results of outlier detection are not skewed towards
particular groups defined on such sensitive attributes. In this task, we
consider, for the first time to our best knowledge, the task of fair outlier
detection. In this work, we consider the task of fair outlier detection over
multiple multi-valued sensitive attributes (e.g., gender, race, religion,
nationality, marital status etc.). We propose a fair outlier detection method,
FairLOF, that is inspired by the popular LOF formulation for neighborhood-based
outlier detection. We outline ways in which unfairness could be induced within
LOF and develop three heuristic principles to enhance fairness, which form the
basis of the FairLOF method. Being a novel task, we develop an evaluation
framework for fair outlier detection, and use that to benchmark FairLOF on
quality and fairness of results. Through an extensive empirical evaluation over
real-world datasets, we illustrate that FairLOF is able to achieve significant
improvements in fairness at sometimes marginal degradations on result quality
as measured against the fairness-agnostic LOF method.
- Abstract(参考訳): 異常検出方法は、その感度特性に基づいて定義された特定のグループに対して異常検出の結果が歪まない場合、特定の機密属性に対して公平と考えることができる。
このタスクでは、私たちの最善の知識に対して、公正な異常検出のタスクを初めて考慮します。
本研究では,複数の重値感性属性(性別,人種,宗教,国籍,婚姻状況など)に対する公平なアウトラヤ検出の課題について考察する。
そこで本研究では,一般のlof定式化に触発されたフェア外れ検出法であるfairlofを提案する。
我々は,lof内で不公平を誘導する方法を概説し,fairlof法の基礎となる公平性を高めるための3つのヒューリスティック原理を考案する。
新規なタスクとして,公正な外乱検出のための評価フレームワークを開発し,その結果の品質と公平性についてFairLOFをベンチマークする。
実世界のデータセットに対する広範な実験的な評価を通じて、FairLOFは、フェアネス非依存のLOF法に対して測定された結果品質の限界劣化に対して、フェアネスの大幅な改善を達成可能であることを示す。
関連論文リスト
- Thinking Racial Bias in Fair Forgery Detection: Models, Datasets and Evaluations [63.52709761339949]
最初に、Fair Forgery Detection(FairFD)データセットと呼ばれる専用のデータセットをコントリビュートし、SOTA(Public State-of-the-art)メソッドの人種的偏見を証明する。
我々は、偽りの結果を避けることができる平均的メトリクスと実用正規化メトリクスを含む新しいメトリクスを設計する。
また,有効で堅牢な後処理技術であるBias Pruning with Fair Activations (BPFA)も提案する。
論文 参考訳(メタデータ) (2024-07-19T14:53:18Z) - What Hides behind Unfairness? Exploring Dynamics Fairness in Reinforcement Learning [52.51430732904994]
強化学習問題では、エージェントはリターンを最大化しながら長期的な公正性を考慮する必要がある。
近年の研究では様々なフェアネスの概念が提案されているが、RL問題における不公平性がどのように生じるかは定かではない。
我々は、環境力学から生じる不平等を明示的に捉える、ダイナミックスフェアネスという新しい概念を導入する。
論文 参考訳(メタデータ) (2024-04-16T22:47:59Z) - Preserving Fairness Generalization in Deepfake Detection [14.485069525871504]
ディープフェイク検出モデルは、人種や性別などの人口集団間で不公平なパフォーマンス格差をもたらす可能性がある。
本稿では,特徴,損失,最適化の両面を同時に考慮し,深度検出における公平性一般化問題に対処する手法を提案する。
本手法では, ゆがみ学習を用いて, 人口動態やドメインに依存しない特徴を抽出し, 平らな失われた風景を公平に学習することを奨励する。
論文 参考訳(メタデータ) (2024-02-27T05:47:33Z) - Learning Fair Classifiers via Min-Max F-divergence Regularization [13.81078324883519]
公平な分類モデルを学ぶための新しい min-max F-divergence regularization フレームワークを提案する。
F分割測度は凸性と微分可能性特性を有することを示す。
提案手法は, 精度と公平性のトレードオフに関して, 最先端の性能を実現するものであることを示す。
論文 参考訳(メタデータ) (2023-06-28T20:42:04Z) - FFB: A Fair Fairness Benchmark for In-Processing Group Fairness Methods [84.1077756698332]
本稿では,グループフェアネス手法のベンチマークフレームワークであるFair Fairness Benchmark(textsfFFB)を紹介する。
グループフェアネスの異なる概念を確実にするための最先端手法を包括的に分析する。
論文 参考訳(メタデータ) (2023-06-15T19:51:28Z) - Fair-CDA: Continuous and Directional Augmentation for Group Fairness [48.84385689186208]
公正な制約を課すための詳細なデータ拡張戦略を提案する。
グループ間の感性のある特徴の遷移経路のモデルを正規化することにより、グループフェアネスを実現することができることを示す。
提案手法はデータ生成モデルを仮定せず,精度と公平性の両方に優れた一般化を実現する。
論文 参考訳(メタデータ) (2023-04-01T11:23:00Z) - Chasing Fairness Under Distribution Shift: A Model Weight Perturbation
Approach [72.19525160912943]
まず,分布シフト,データ摂動,モデルウェイト摂動の関連性を理論的に検証した。
次に、ターゲットデータセットの公平性を保証するのに十分な条件を分析します。
これらの十分な条件により、ロバストフェアネス正則化(RFR)を提案する。
論文 参考訳(メタデータ) (2023-03-06T17:19:23Z) - FAL-CUR: Fair Active Learning using Uncertainty and Representativeness
on Fair Clustering [16.808400593594435]
フェアクラスタリング,不確実性,代表性(FAL-CUR)を用いたフェアアクティブラーニングという新しい戦略を提案する。
FAL-CURは、均等化オッズの観点から、最先端の手法と比較して、公正度が15%から20%向上する。
A blation study is highlights the important role of fair clustering inserving fairness and the acquisition function in stabilizing the accuracy performance。
論文 参考訳(メタデータ) (2022-09-21T08:28:43Z) - How Robust is Your Fairness? Evaluating and Sustaining Fairness under
Unseen Distribution Shifts [107.72786199113183]
CUMA(CUrvature Matching)と呼ばれる新しいフェアネス学習手法を提案する。
CUMAは、未知の分布シフトを持つ未知の領域に一般化可能な頑健な公正性を達成する。
提案手法を3つの人気フェアネスデータセットで評価する。
論文 参考訳(メタデータ) (2022-07-04T02:37:50Z) - Deep Clustering based Fair Outlier Detection [19.601280507914325]
本稿では,統合深層クラスタリングと外乱検出を強化するために,インスタンスレベルの重み付き表現学習戦略を提案する。
我々のDCFOD法は, 異常検出において, 異常検出の妥当性と2種類のフェアネス概念の両面において, 常に優れた性能を達成している。
論文 参考訳(メタデータ) (2021-06-09T15:12:26Z) - Fairness-aware Outlier Ensemble [30.0516419408149]
外れたアンサンブルメソッドは、大部分のデータと著しく異なるインスタンスの発見において、優れたパフォーマンスを示している。
公正さの意識がなければ、不正検出や司法判断システムといった倫理的シナリオにおける適用性は低下する可能性がある。
公平性を意識したアンサンブルフレームワークにより、アウトリーヤアンサンブル結果のバイアスを低減することを提案する。
論文 参考訳(メタデータ) (2021-03-17T03:21:24Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。