論文の概要: Towards counterfactual fairness thorough auxiliary variables
- arxiv url: http://arxiv.org/abs/2412.04767v1
- Date: Fri, 06 Dec 2024 04:23:05 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-12-09 15:57:06.824523
- Title: Towards counterfactual fairness thorough auxiliary variables
- Title(参考訳): 反ファクトフェアネスの完全補助変数へ向けて
- Authors: Bowei Tian, Ziyao Wang, Shwai He, Wanghao Ye, Guoheng Sun, Yucong Dai, Yongkai Wu, Ang Li,
- Abstract要約: 変数を動機とする新しい因果推論フレームワークEXOCを紹介する。
本フレームワークは, ファクトフェアネスに寄与する補助ノードと制御ノードを明示的に定義する。
合成および実世界のデータセットを用いて評価を行い,EXOCの優位性を検証した。
- 参考スコア(独自算出の注目度): 11.756940915048713
- License:
- Abstract: The challenge of balancing fairness and predictive accuracy in machine learning models, especially when sensitive attributes such as race, gender, or age are considered, has motivated substantial research in recent years. Counterfactual fairness ensures that predictions remain consistent across counterfactual variations of sensitive attributes, which is a crucial concept in addressing societal biases. However, existing counterfactual fairness approaches usually overlook intrinsic information about sensitive features, limiting their ability to achieve fairness while simultaneously maintaining performance. To tackle this challenge, we introduce EXOgenous Causal reasoning (EXOC), a novel causal reasoning framework motivated by exogenous variables. It leverages auxiliary variables to uncover intrinsic properties that give rise to sensitive attributes. Our framework explicitly defines an auxiliary node and a control node that contribute to counterfactual fairness and control the information flow within the model. Our evaluation, conducted on synthetic and real-world datasets, validates EXOC's superiority, showing that it outperforms state-of-the-art approaches in achieving counterfactual fairness.
- Abstract(参考訳): 機械学習モデルにおける公平性と予測精度のバランスに関する課題、特に人種、性別、年齢などのセンシティブな属性が考慮されている場合、近年、かなりの研究の動機となっている。
反事実的公正性は、社会的偏見に対処する上で重要な概念であるセンシティブな属性の反事実的変動に対して、予測が一貫していることを保証する。
しかしながら、既存の反ファクトフェアネスアプローチは、通常、繊細な特徴に関する本質的な情報を見落とし、パフォーマンスを同時に維持しながら公平性を達成する能力を制限する。
この課題に対処するために,exogenous Causal reasoning (EXOC)を導入した。
補助変数を利用して、センシティブな属性をもたらす固有の特性を明らかにする。
本フレームワークは, モデル内の情報フローを制御し, 対実的公正性に寄与する補助ノードと制御ノードを明示的に定義する。
合成および実世界のデータセットを用いて評価を行い,EXOCの優位性を検証し,非現実的公正性を達成する上で,最先端のアプローチよりも優れていることを示す。
関連論文リスト
- Toward Fairer Face Recognition Datasets [69.04239222633795]
顔認識と検証は、ディープ表現の導入によってパフォーマンスが向上したコンピュータビジョンタスクである。
実際のトレーニングデータセットにおける顔データとバイアスのセンシティブな性格による倫理的、法的、技術的な課題は、彼らの開発を妨げる。
生成されたトレーニングデータセットに階層属性のバランス機構を導入することにより、公平性を促進する。
論文 参考訳(メタデータ) (2024-06-24T12:33:21Z) - What Hides behind Unfairness? Exploring Dynamics Fairness in Reinforcement Learning [52.51430732904994]
強化学習問題では、エージェントはリターンを最大化しながら長期的な公正性を考慮する必要がある。
近年の研究では様々なフェアネスの概念が提案されているが、RL問題における不公平性がどのように生じるかは定かではない。
我々は、環境力学から生じる不平等を明示的に捉える、ダイナミックスフェアネスという新しい概念を導入する。
論文 参考訳(メタデータ) (2024-04-16T22:47:59Z) - Understanding Fairness Surrogate Functions in Algorithmic Fairness [21.555040357521907]
フェアネスの定義とフェアネスのサロゲート関数の間には、サロゲートとフェアネスのギャップがあることが示される。
我々は、不公平を緩和するギャップを反復的に減少させる「バランスド・サロゲート」という、新規で一般的なアルゴリズムを精査する。
論文 参考訳(メタデータ) (2023-10-17T12:40:53Z) - Fairness Under Demographic Scarce Regime [7.523105080786704]
フェアネスと精度のトレードオフを改善する属性分類器を構築するためのフレームワークを提案する。
不確実な感度特性を持つ試料に公正性制約を課すことは、公正性-正確性トレードオフに悪影響を及ぼす可能性があることを示す。
我々のフレームワークは、ほとんどのベンチマークで真に敏感な属性に対する公平性制約で訓練されたモデルより優れている。
論文 参考訳(メタデータ) (2023-07-24T19:07:34Z) - Learning for Counterfactual Fairness from Observational Data [62.43249746968616]
公正な機械学習は、人種、性別、年齢などの特定の保護された(感受性のある)属性によって記述されるある種のサブグループに対して、学習モデルのバイアスを取り除くことを目的としている。
カウンターファクトフェアネスを達成するための既存の手法の前提条件は、データに対する因果モデルの事前の人間の知識である。
本研究では,新しいフレームワークCLAIREを提案することにより,因果関係を付与せずに観測データから対実的に公正な予測を行う問題に対処する。
論文 参考訳(メタデータ) (2023-07-17T04:08:29Z) - DualFair: Fair Representation Learning at Both Group and Individual
Levels via Contrastive Self-supervision [73.80009454050858]
この研究は、DualFairと呼ばれる自己教師型モデルを提示し、学習された表現から性別や人種などのセンシティブな属性をデバイアスすることができる。
我々のモデルは、グループフェアネスと対実フェアネスという2つのフェアネス基準を共同で最適化する。
論文 参考訳(メタデータ) (2023-03-15T07:13:54Z) - Measuring Fairness of Text Classifiers via Prediction Sensitivity [63.56554964580627]
加速度予測感度は、入力特徴の摂動に対するモデルの予測感度に基づいて、機械学習モデルの公正度を測定する。
この計量は、群フェアネス(統計パリティ)と個人フェアネスという特定の概念と理論的に関連付けられることを示す。
論文 参考訳(メタデータ) (2022-03-16T15:00:33Z) - Learning Fair Node Representations with Graph Counterfactual Fairness [56.32231787113689]
以上の事実から導かれるバイアスを考慮したグラフ反事実公正性を提案する。
我々は各ノードとその周辺住民の感度特性の摂動に対応する反事実を生成する。
我々のフレームワークはグラフの反ファクトフェアネスにおける最先端のベースラインよりも優れています。
論文 参考訳(メタデータ) (2022-01-10T21:43:44Z) - Adversarial Learning for Counterfactual Fairness [15.302633901803526]
近年、フェアネスは機械学習研究コミュニティにおいて重要なトピックとなっている。
我々は,MDDの罰則よりも強力な推論を可能にする,対向的ニューラルネットワークアプローチに頼ることを提案する。
実験では、離散的および連続的な設定の両方に対して、対実的公正性の観点から、顕著な改善が示された。
論文 参考訳(メタデータ) (2020-08-30T09:06:03Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。