論文の概要: Fair Causal Feature Selection
- arxiv url: http://arxiv.org/abs/2306.10336v2
- Date: Mon, 18 Sep 2023 05:07:53 GMT
- ステータス: 処理完了
- システム内更新日: 2023-09-19 23:17:04.531900
- Title: Fair Causal Feature Selection
- Title(参考訳): 公正な因果的特徴選択
- Authors: Zhaolong Ling, Enqi Xu, Peng Zhou, Liang Du, Kui Yu, and Xindong Wu
- Abstract要約: フェアCFSと呼ばれるフェア因果的特徴選択アルゴリズムを提案する。
FairCFSは局所化された因果グラフを構築し、クラスと敏感な変数のマルコフ毛布を識別する。
7つのパブリックな実世界のデータセットの実験により、FairCFSは8つの最先端機能選択アルゴリズムと比較して精度が同等であることが検証された。
- 参考スコア(独自算出の注目度): 17.29310476978056
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Fair feature selection for classification decision tasks has recently
garnered significant attention from researchers. However, existing fair feature
selection algorithms fall short of providing a full explanation of the causal
relationship between features and sensitive attributes, potentially impacting
the accuracy of fair feature identification. To address this issue, we propose
a Fair Causal Feature Selection algorithm, called FairCFS. Specifically,
FairCFS constructs a localized causal graph that identifies the Markov blankets
of class and sensitive variables, to block the transmission of sensitive
information for selecting fair causal features. Extensive experiments on seven
public real-world datasets validate that FairCFS has comparable accuracy
compared to eight state-of-the-art feature selection algorithms, while
presenting more superior fairness.
- Abstract(参考訳): 分類決定タスクの公平な特徴選択は、最近研究者から大きな注目を集めている。
しかし、既存の公正な特徴選択アルゴリズムは、特徴と機密属性の因果関係を完全に説明できないため、公正な特徴識別の精度に影響を及ぼす可能性がある。
この問題に対処するため,FairCFSと呼ばれるFair Causal Feature Selectionアルゴリズムを提案する。
具体的には、FairCFSは、クラスと機密変数のマルコフ毛布を識別する局所因果グラフを構築し、公正因果特徴を選択するための機密情報の伝達をブロックする。
7つの公開実世界のデータセットに対する大規模な実験により、FairCFSは8つの最先端機能選択アルゴリズムと比較して精度が同等であり、より優れた公正性を示す。
関連論文リスト
- Fair Streaming Feature Selection [9.327911386140109]
公正なストリーミング特徴選択のための新しいアルゴリズムであるFairSFSを提案する。
FairSFSは,ストリーミングの特徴選択手法と同等の精度を維持するだけでなく,フェアネスの指標を大幅に改善することを示す。
論文 参考訳(メタデータ) (2024-06-20T15:22:44Z) - On the Power of Randomization in Fair Classification and Representation [4.423655941492362]
正当性制約を課す際に生じる精度の損失を最小限に抑えるためにランダム化の力を示す。
本研究では, DPフェア, EOフェア, PEフェアの表現を, 最適なDPフェア, EOフェア, PEフェアの分類器に比較して, 高い精度で, 精度を損なうことなく構築する。
論文 参考訳(メタデータ) (2024-06-05T10:55:11Z) - Fair-CDA: Continuous and Directional Augmentation for Group Fairness [48.84385689186208]
公正な制約を課すための詳細なデータ拡張戦略を提案する。
グループ間の感性のある特徴の遷移経路のモデルを正規化することにより、グループフェアネスを実現することができることを示す。
提案手法はデータ生成モデルを仮定せず,精度と公平性の両方に優れた一般化を実現する。
論文 参考訳(メタデータ) (2023-04-01T11:23:00Z) - Chasing Fairness Under Distribution Shift: A Model Weight Perturbation
Approach [72.19525160912943]
まず,分布シフト,データ摂動,モデルウェイト摂動の関連性を理論的に検証した。
次に、ターゲットデータセットの公平性を保証するのに十分な条件を分析します。
これらの十分な条件により、ロバストフェアネス正則化(RFR)を提案する。
論文 参考訳(メタデータ) (2023-03-06T17:19:23Z) - Fairness via Adversarial Attribute Neighbourhood Robust Learning [49.93775302674591]
本稿では,分類ヘッドを損なうために,UnderlineRobust underlineAdversarial underlineAttribute underlineNeighbourhood (RAAN)損失を原則として提案する。
論文 参考訳(メタデータ) (2022-10-12T23:39:28Z) - How Biased are Your Features?: Computing Fairness Influence Functions
with Global Sensitivity Analysis [38.482411134083236]
機械学習の公正性は、ハイテイクな意思決定タスクに広く適用されているため、大きな焦点をあてている。
本稿では,各特徴の偏りを個々の特徴と複数の特徴の交叉に分解するFairness Influence Function (FIF)を紹介する。
実験により、FairXplainerは個々の特徴と交叉特徴のFIFをキャプチャし、FIFに基づくバイアスのより優れた近似を提供し、FIFと公平な介入の相関を高く示し、また、分類器における公正肯定的/疑似的行動によるバイアスの変化を検出する。
論文 参考訳(メタデータ) (2022-06-01T04:02:16Z) - Counterfactual Fairness with Partially Known Causal Graph [85.15766086381352]
本稿では,真の因果グラフが不明な場合に,対実フェアネスの概念を実現するための一般的な手法を提案する。
特定の背景知識が提供されると、正の因果グラフが完全に知られているかのように、反ファクト的公正性を達成することができる。
論文 参考訳(メタデータ) (2022-05-27T13:40:50Z) - Information Theoretic Measures for Fairness-aware Feature Selection [27.06618125828978]
我々は,特徴の精度と識別的影響に関する情報理論に基づく,公平性を考慮した特徴選択のためのフレームワークを開発する。
具体的には、この機能が正確性や非差別的判断にどのように影響するかを定量化する、各機能に対する公平性ユーティリティスコアを設計することを目的としています。
論文 参考訳(メタデータ) (2021-06-01T20:11:54Z) - Algorithmic Decision Making with Conditional Fairness [48.76267073341723]
条件付きフェアネスを、条件付きフェアネス変数の条件付けにより、より健全なフェアネス計量として定義する。
本稿では,アルゴリズム決定の精度と公平性のトレードオフを追跡するために,導出条件公正規則化器(DCFR)を提案する。
論文 参考訳(メタデータ) (2020-06-18T12:56:28Z) - Causal Feature Selection for Algorithmic Fairness [61.767399505764736]
データ管理の統合コンポーネントにおける公平性について検討する。
本稿では,データセットの公平性を保証する特徴のサブコレクションを同定する手法を提案する。
論文 参考訳(メタデータ) (2020-06-10T20:20:10Z) - Fair Inputs and Fair Outputs: The Incompatibility of Fairness in Privacy
and Accuracy [0.0]
プライバシと必要な知識は意思決定システムの望ましい特性である,と我々は主張する。
最適分類器に対して、これらの3つの性質は一般に非互換であることを示す。
3つの特性間のトレードオフが与えられたデータセットに存在するかどうかを検証するアルゴリズムを提供する。
論文 参考訳(メタデータ) (2020-05-19T04:32:16Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。