論文の概要: Fair Causal Feature Selection
- arxiv url: http://arxiv.org/abs/2306.10336v1
- Date: Sat, 17 Jun 2023 12:40:43 GMT
- ステータス: 処理完了
- システム内更新日: 2023-06-21 22:54:35.682600
- Title: Fair Causal Feature Selection
- Title(参考訳): 公正な因果的特徴選択
- Authors: Zhaolong Ling, Jingxuan Wu, Yiwen Zhang, Peng Zhou, Xingyu Wu, Kui Yu,
and Xindong Wu
- Abstract要約: クラス変数は通常複数の状態を持ち、クラス変数の異なる状態に対して同じ因果的特徴を選択することは不公平である。
クラス固有の相互情報を用いて、クラス属性の各状態が持つ因果情報を評価し、各状態と因果的特徴の間の一意的な関係を理論的に分析する。
The Fair Causal Feature Selection algorithm (FairCFS) was proposed to fair identified the causal features for each state of the class variable。
- 参考スコア(独自算出の注目度): 25.891950317656722
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Causal feature selection has recently received increasing attention in
machine learning. Existing causal feature selection algorithms select unique
causal features of a class variable as the optimal feature subset. However, a
class variable usually has multiple states, and it is unfair to select the same
causal features for different states of a class variable. To address this
problem, we employ the class-specific mutual information to evaluate the causal
information carried by each state of the class attribute, and theoretically
analyze the unique relationship between each state and the causal features.
Based on this, a Fair Causal Feature Selection algorithm (FairCFS) is proposed
to fairly identifies the causal features for each state of the class variable.
Specifically, FairCFS uses the pairwise comparisons of class-specific mutual
information and the size of class-specific mutual information values from the
perspective of each state, and follows a divide-and-conquer framework to find
causal features. The correctness and application condition of FairCFS are
theoretically proved, and extensive experiments are conducted to demonstrate
the efficiency and superiority of FairCFS compared to the state-of-the-art
approaches.
- Abstract(参考訳): 因果的特徴選択は最近、機械学習で注目を集めている。
既存の因果特徴選択アルゴリズムは、最適な特徴サブセットとしてクラス変数のユニークな因果特徴を選択する。
しかし、クラス変数は通常複数の状態を持ち、クラス変数の異なる状態に対して同じ因果特徴を選択することは不公平である。
この問題に対処するため,我々はクラス属性のそれぞれの状態が持つ因果情報を評価するためにクラス固有の相互情報を用い,理論的に各状態と因果特性の関係を解析した。
これに基づいて,FairCFS (Fair Causal Feature Selection Algorithm) が提案され,クラス変数の各状態の因果的特徴を正確に識別する。
具体的には、FairCFSは、各状態の観点から、クラス固有の相互情報のペア比較と、クラス固有の相互情報値のサイズを使い、因果的特徴を見つけるために、分断型フレームワークに従う。
FairCFSの正しさと適用条件を理論的に証明し、FairCFSの最先端手法と比較して効率と優位性を実証するための広範な実験を行った。
関連論文リスト
- Fair Streaming Feature Selection [9.327911386140109]
公正なストリーミング特徴選択のための新しいアルゴリズムであるFairSFSを提案する。
FairSFSは,ストリーミングの特徴選択手法と同等の精度を維持するだけでなく,フェアネスの指標を大幅に改善することを示す。
論文 参考訳(メタデータ) (2024-06-20T15:22:44Z) - On the Power of Randomization in Fair Classification and Representation [4.423655941492362]
正当性制約を課す際に生じる精度の損失を最小限に抑えるためにランダム化の力を示す。
本研究では, DPフェア, EOフェア, PEフェアの表現を, 最適なDPフェア, EOフェア, PEフェアの分類器に比較して, 高い精度で, 精度を損なうことなく構築する。
論文 参考訳(メタデータ) (2024-06-05T10:55:11Z) - Fair-CDA: Continuous and Directional Augmentation for Group Fairness [48.84385689186208]
公正な制約を課すための詳細なデータ拡張戦略を提案する。
グループ間の感性のある特徴の遷移経路のモデルを正規化することにより、グループフェアネスを実現することができることを示す。
提案手法はデータ生成モデルを仮定せず,精度と公平性の両方に優れた一般化を実現する。
論文 参考訳(メタデータ) (2023-04-01T11:23:00Z) - Chasing Fairness Under Distribution Shift: A Model Weight Perturbation
Approach [72.19525160912943]
まず,分布シフト,データ摂動,モデルウェイト摂動の関連性を理論的に検証した。
次に、ターゲットデータセットの公平性を保証するのに十分な条件を分析します。
これらの十分な条件により、ロバストフェアネス正則化(RFR)を提案する。
論文 参考訳(メタデータ) (2023-03-06T17:19:23Z) - Fairness via Adversarial Attribute Neighbourhood Robust Learning [49.93775302674591]
本稿では,分類ヘッドを損なうために,UnderlineRobust underlineAdversarial underlineAttribute underlineNeighbourhood (RAAN)損失を原則として提案する。
論文 参考訳(メタデータ) (2022-10-12T23:39:28Z) - How Biased are Your Features?: Computing Fairness Influence Functions
with Global Sensitivity Analysis [38.482411134083236]
機械学習の公正性は、ハイテイクな意思決定タスクに広く適用されているため、大きな焦点をあてている。
本稿では,各特徴の偏りを個々の特徴と複数の特徴の交叉に分解するFairness Influence Function (FIF)を紹介する。
実験により、FairXplainerは個々の特徴と交叉特徴のFIFをキャプチャし、FIFに基づくバイアスのより優れた近似を提供し、FIFと公平な介入の相関を高く示し、また、分類器における公正肯定的/疑似的行動によるバイアスの変化を検出する。
論文 参考訳(メタデータ) (2022-06-01T04:02:16Z) - Counterfactual Fairness with Partially Known Causal Graph [85.15766086381352]
本稿では,真の因果グラフが不明な場合に,対実フェアネスの概念を実現するための一般的な手法を提案する。
特定の背景知識が提供されると、正の因果グラフが完全に知られているかのように、反ファクト的公正性を達成することができる。
論文 参考訳(メタデータ) (2022-05-27T13:40:50Z) - Information Theoretic Measures for Fairness-aware Feature Selection [27.06618125828978]
我々は,特徴の精度と識別的影響に関する情報理論に基づく,公平性を考慮した特徴選択のためのフレームワークを開発する。
具体的には、この機能が正確性や非差別的判断にどのように影響するかを定量化する、各機能に対する公平性ユーティリティスコアを設計することを目的としています。
論文 参考訳(メタデータ) (2021-06-01T20:11:54Z) - Algorithmic Decision Making with Conditional Fairness [48.76267073341723]
条件付きフェアネスを、条件付きフェアネス変数の条件付けにより、より健全なフェアネス計量として定義する。
本稿では,アルゴリズム決定の精度と公平性のトレードオフを追跡するために,導出条件公正規則化器(DCFR)を提案する。
論文 参考訳(メタデータ) (2020-06-18T12:56:28Z) - Causal Feature Selection for Algorithmic Fairness [61.767399505764736]
データ管理の統合コンポーネントにおける公平性について検討する。
本稿では,データセットの公平性を保証する特徴のサブコレクションを同定する手法を提案する。
論文 参考訳(メタデータ) (2020-06-10T20:20:10Z) - Fair Inputs and Fair Outputs: The Incompatibility of Fairness in Privacy
and Accuracy [0.0]
プライバシと必要な知識は意思決定システムの望ましい特性である,と我々は主張する。
最適分類器に対して、これらの3つの性質は一般に非互換であることを示す。
3つの特性間のトレードオフが与えられたデータセットに存在するかどうかを検証するアルゴリズムを提供する。
論文 参考訳(メタデータ) (2020-05-19T04:32:16Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。