論文の概要: Fairness-aware Anomaly Detection via Fair Projection
- arxiv url: http://arxiv.org/abs/2505.11132v1
- Date: Fri, 16 May 2025 11:26:00 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-05-19 14:36:14.788638
- Title: Fairness-aware Anomaly Detection via Fair Projection
- Title(参考訳): フェアプロジェクションによるフェアネス認識異常検出
- Authors: Feng Xiao, Xiaoying Tang, Jicong Fan,
- Abstract要約: 教師なしの異常検出は、金融、医療、ソーシャルメディア、サイバーセキュリティなどの社会的影響の高いアプリケーションにおいて重要である。
これらのシナリオでは、異常検出システムからのバイアスの可能性は、異なるグループに対して不公平な扱いをし、さらに社会的バイアスを悪化させる可能性がある。
フェアネスを意識した新しい異常検出法であるFairADを提案する。
- 参考スコア(独自算出の注目度): 24.68178499460169
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Unsupervised anomaly detection is a critical task in many high-social-impact applications such as finance, healthcare, social media, and cybersecurity, where demographics involving age, gender, race, disease, etc, are used frequently. In these scenarios, possible bias from anomaly detection systems can lead to unfair treatment for different groups and even exacerbate social bias. In this work, first, we thoroughly analyze the feasibility and necessary assumptions for ensuring group fairness in unsupervised anomaly detection. Second, we propose a novel fairness-aware anomaly detection method FairAD. From the normal training data, FairAD learns a projection to map data of different demographic groups to a common target distribution that is simple and compact, and hence provides a reliable base to estimate the density of the data. The density can be directly used to identify anomalies while the common target distribution ensures fairness between different groups. Furthermore, we propose a threshold-free fairness metric that provides a global view for model's fairness, eliminating dependence on manual threshold selection. Experiments on real-world benchmarks demonstrate that our method achieves an improved trade-off between detection accuracy and fairness under both balanced and skewed data across different groups.
- Abstract(参考訳): 教師なしの異常検出は、金融、医療、ソーシャルメディア、サイバーセキュリティなど、社会に影響を及ぼす多くのアプリケーションにおいて重要な課題であり、年齢、性別、人種、病気などを含む人口動態が頻繁に使用される。
これらのシナリオでは、異常検出システムからのバイアスの可能性は、異なるグループに対して不公平な扱いをし、さらに社会的バイアスを悪化させる可能性がある。
本研究では、まず、教師なし異常検出におけるグループフェアネスを確保するための可能性と必要な仮定を徹底的に分析する。
第2に,新しいフェアネス認識異常検出法であるFairADを提案する。
通常のトレーニングデータから、FairADは、異なる階層群のデータを単純でコンパクトな共通のターゲット分布にマッピングするプロジェクションを学習し、データの密度を推定するための信頼性の高いベースを提供する。
この密度は、共通のターゲット分布が異なる群間の公平性を保証する一方で、異常を識別するために直接使用することができる。
さらに,手動による閾値選択への依存を排除し,モデルフェアネスのグローバルなビューを提供する閾値自由公平度指標を提案する。
実世界のベンチマーク実験により,本手法は,各グループ間の平衡データとスキューデータの両方において,検出精度と公平性の間のトレードオフを改善できることが示されている。
関連論文リスト
- Fair Anomaly Detection For Imbalanced Groups [33.578902826744255]
不均衡シナリオを対象としたフェアネスを考慮した異常検出手法であるFairADを提案する。
フェアネスを意識したコントラスト学習モジュールと、フェアネスを確保し、不均衡なデータ問題に対処するリバランシングオートエンコーダモジュールで構成されている。
論文 参考訳(メタデータ) (2024-09-17T07:38:45Z) - Thinking Racial Bias in Fair Forgery Detection: Models, Datasets and Evaluations [63.52709761339949]
最初に、Fair Forgery Detection(FairFD)データセットと呼ばれる専用のデータセットをコントリビュートし、SOTA(Public State-of-the-art)メソッドの人種的偏見を証明する。
我々は、偽りの結果を避けることができる平均的メトリクスと実用正規化メトリクスを含む新しいメトリクスを設計する。
また,有効で堅牢な後処理技術であるBias Pruning with Fair Activations (BPFA)も提案する。
論文 参考訳(メタデータ) (2024-07-19T14:53:18Z) - Fairness Without Harm: An Influence-Guided Active Sampling Approach [32.173195437797766]
我々は、モデルの精度に害を与えることなく、グループフェアネスの格差を軽減するモデルを訓練することを目指している。
公正なアクティブな学習アプローチのような現在のデータ取得方法は、通常、アノテートセンシティブな属性を必要とする。
トレーニンググループアノテーションに依存しない抽出可能なアクティブデータサンプリングアルゴリズムを提案する。
論文 参考訳(メタデータ) (2024-02-20T07:57:38Z) - Achieving Counterfactual Fairness for Anomaly Detection [20.586768167592112]
本稿では,2つの相,反実データ生成と公正な異常検出からなる,反実的公正な異常検出(CFAD)フレームワークを提案する。
合成データセットと2つの実データセットの実験結果から、CFADは異常を効果的に検出し、反ファクト的公正性を確保することができることが示された。
論文 参考訳(メタデータ) (2023-03-04T04:45:12Z) - On Comparing Fair Classifiers under Data Bias [42.43344286660331]
本研究では,データ偏差の変化が公正分類器の精度と公平性に及ぼす影響について検討する。
我々の実験は、既存のフェアネスダッシュボードにデータバイアスリスクの尺度を統合する方法を示している。
論文 参考訳(メタデータ) (2023-02-12T13:04:46Z) - D-BIAS: A Causality-Based Human-in-the-Loop System for Tackling
Algorithmic Bias [57.87117733071416]
D-BIASは、人間のループ内AIアプローチを具現化し、社会的バイアスを監査し軽減する視覚対話型ツールである。
ユーザは、因果ネットワークにおける不公平な因果関係を識別することにより、グループに対する偏見の存在を検出することができる。
それぞれのインタラクション、例えばバイアスのある因果縁の弱体化/削除は、新しい(偏りのある)データセットをシミュレートするために、新しい方法を用いている。
論文 参考訳(メタデータ) (2022-08-10T03:41:48Z) - Understanding Unfairness in Fraud Detection through Model and Data Bias
Interactions [4.159343412286401]
アルゴリズムの不公平性は、データ内のモデルとバイアスの間の相互作用に起因すると我々は主張する。
フェアネスブラインドMLアルゴリズムが示す公平さと正確さのトレードオフに関する仮説を、異なるデータバイアス設定下で検討する。
論文 参考訳(メタデータ) (2022-07-13T15:18:30Z) - How Robust is Your Fairness? Evaluating and Sustaining Fairness under
Unseen Distribution Shifts [107.72786199113183]
CUMA(CUrvature Matching)と呼ばれる新しいフェアネス学習手法を提案する。
CUMAは、未知の分布シフトを持つ未知の領域に一般化可能な頑健な公正性を達成する。
提案手法を3つの人気フェアネスデータセットで評価する。
論文 参考訳(メタデータ) (2022-07-04T02:37:50Z) - Domain-Incremental Continual Learning for Mitigating Bias in Facial
Expression and Action Unit Recognition [5.478764356647437]
FERシステムの公平性を高めるための強力なバイアス軽減法として,Continual Learning (CL) の新たな利用法を提案する。
表現認識と行動ユニット(AU)検出タスクにおける分類精度と公平度スコアについて,非CL法とCL法との比較を行った。
実験の結果,CLに基づく手法は,精度と公正度の両方において,他の一般的なバイアス緩和手法よりも優れていた。
論文 参考訳(メタデータ) (2021-03-15T18:22:17Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。