論文の概要: Procedural Fairness and Its Relationship with Distributive Fairness in Machine Learning
- arxiv url: http://arxiv.org/abs/2501.06753v1
- Date: Sun, 12 Jan 2025 08:42:32 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-01-14 14:29:21.606896
- Title: Procedural Fairness and Its Relationship with Distributive Fairness in Machine Learning
- Title(参考訳): 機械学習における手続き的公正性と分配的公正との関係
- Authors: Ziming Wang, Changwu Huang, Ke Tang, Xin Yao,
- Abstract要約: 本稿では,モデル学習段階における手続き的公正性を実現するための新しい手法を提案する。
提案手法の有効性は,1つの実世界のデータセットと6つの実世界のデータセットを用いて実験により検証した。
- 参考スコア(独自算出の注目度): 16.07834804195331
- License:
- Abstract: Fairness in machine learning (ML) has garnered significant attention in recent years. While existing research has predominantly focused on the distributive fairness of ML models, there has been limited exploration of procedural fairness. This paper proposes a novel method to achieve procedural fairness during the model training phase. The effectiveness of the proposed method is validated through experiments conducted on one synthetic and six real-world datasets. Additionally, this work studies the relationship between procedural fairness and distributive fairness in ML models. On one hand, the impact of dataset bias and the procedural fairness of ML model on its distributive fairness is examined. The results highlight a significant influence of both dataset bias and procedural fairness on distributive fairness. On the other hand, the distinctions between optimizing procedural and distributive fairness metrics are analyzed. Experimental results demonstrate that optimizing procedural fairness metrics mitigates biases introduced or amplified by the decision-making process, thereby ensuring fairness in the decision-making process itself, as well as improving distributive fairness. In contrast, optimizing distributive fairness metrics encourages the ML model's decision-making process to favor disadvantaged groups, counterbalancing the inherent preferences for advantaged groups present in the dataset and ultimately achieving distributive fairness.
- Abstract(参考訳): 機械学習(ML)の公正さは近年大きな注目を集めている。
既存の研究は主にMLモデルの流通フェアネスに焦点が当てられているが、手続きフェアネスの探索は限られている。
本稿では,モデル学習段階における手続き的公正性を実現するための新しい手法を提案する。
提案手法の有効性は,1つの実世界のデータセットと6つの実世界のデータセットを用いて実験により検証した。
さらに、この研究は、MLモデルにおける手続き的公正性と分配的公正性との関係について研究する。
一方,データセットバイアスとMLモデルの手続き的公正度が分配的公正性に及ぼす影響について検討した。
その結果、データセットバイアスと手続きフェアネスの両方が分配フェアネスに有意な影響を与えている。
一方、プロシージャと分配公正度を最適化する指標の区別について分析した。
実験結果から, 手続き的公正度尺度の最適化は, 意思決定プロセスによって導入された, 増幅されたバイアスを軽減し, 意思決定プロセス自体の公平性を確保するとともに, 分配的公正性の向上を図っている。
対照的に、分配公正度を最適化することは、MLモデルの意思決定プロセスが不利なグループを好むことを奨励し、データセットに存在する有利なグループ固有の嗜好に逆らって、最終的に分配公正性を達成する。
関連論文リスト
- MITA: Bridging the Gap between Model and Data for Test-time Adaptation [68.62509948690698]
テスト時間適応(TTA)は、モデルの一般化性を高めるための有望なパラダイムとして登場した。
本稿では,Met-In-The-MiddleをベースとしたMITAを提案する。
論文 参考訳(メタデータ) (2024-10-12T07:02:33Z) - Procedural Fairness in Machine Learning [8.034966749391902]
まず、MLモデルの手続き的公正性を定義し、その後、個人的およびグループ的手続き的公正性の形式的定義を与える。
本稿では,GPF_FAE$と呼ばれるMLモデルの群手続き的公正性を評価するための新しい指標を提案する。
論文 参考訳(メタデータ) (2024-04-02T12:05:02Z) - FairRR: Pre-Processing for Group Fairness through Randomized Response [11.748613469340071]
グループフェアネスの尺度を最適モデルユーティリティで直接制御できることが示される。
本稿では,FairRRという,下流モデルの有用性と公平性を向上する前処理アルゴリズムを提案する。
論文 参考訳(メタデータ) (2024-03-12T16:08:47Z) - Data vs. Model Machine Learning Fairness Testing: An Empirical Study [23.535630175567146]
モデルトレーニング前後の公平性をテストすることによって、より包括的なアプローチを評価するための第一歩を踏み出します。
モデル依存度と独立公平度の関係を実証的に分析し,提案手法の有効性を評価する。
以上の結果から, トレーニング前の公平性テストは, バイアスデータ収集プロセスの早期取得において, より安価かつ効果的な手段であることが示唆された。
論文 参考訳(メタデータ) (2024-01-15T14:14:16Z) - Dr. FERMI: A Stochastic Distributionally Robust Fair Empirical Risk
Minimization Framework [12.734559823650887]
分散シフトが存在する場合、公正な機械学習モデルはテストデータに対して不公平に振る舞うことがある。
既存のアルゴリズムはデータへの完全なアクセスを必要とし、小さなバッチを使用する場合には使用できない。
本稿では,因果グラフの知識を必要としない収束保証付き分布安定度フレームワークを提案する。
論文 参考訳(メタデータ) (2023-09-20T23:25:28Z) - Chasing Fairness Under Distribution Shift: A Model Weight Perturbation
Approach [72.19525160912943]
まず,分布シフト,データ摂動,モデルウェイト摂動の関連性を理論的に検証した。
次に、ターゲットデータセットの公平性を保証するのに十分な条件を分析します。
これらの十分な条件により、ロバストフェアネス正則化(RFR)を提案する。
論文 参考訳(メタデータ) (2023-03-06T17:19:23Z) - Fairness and Explainability: Bridging the Gap Towards Fair Model
Explanations [12.248793742165278]
我々は、説明に基づく手続き指向公正の新たな視点を提示することにより、公正性と説明可能性のギャップを埋める。
本稿では,複数の目的を同時に達成する包括的公正性アルゴリズム (CFA) を提案する。
論文 参考訳(メタデータ) (2022-12-07T18:35:54Z) - How Robust is Your Fairness? Evaluating and Sustaining Fairness under
Unseen Distribution Shifts [107.72786199113183]
CUMA(CUrvature Matching)と呼ばれる新しいフェアネス学習手法を提案する。
CUMAは、未知の分布シフトを持つ未知の領域に一般化可能な頑健な公正性を達成する。
提案手法を3つの人気フェアネスデータセットで評価する。
論文 参考訳(メタデータ) (2022-07-04T02:37:50Z) - Domain Adaptation meets Individual Fairness. And they get along [48.95808607591299]
アルゴリズムフェアネスの介入は、機械学習モデルが分散シフトを克服するのに役立つことを示す。
特に,個人フェアネス(IF)の適切な概念を強制することで,MLモデルの分布外精度が向上することを示す。
論文 参考訳(メタデータ) (2022-05-01T16:19:55Z) - SenSeI: Sensitive Set Invariance for Enforcing Individual Fairness [50.916483212900275]
まず、ある感度集合の不変性を強制する個別の公正性のバージョンを定式化する。
次に,輸送型正規化器を設計し,個別の公平性を強制し,効率よく正規化器を最小化するためのアルゴリズムを開発する。
論文 参考訳(メタデータ) (2020-06-25T04:31:57Z) - Causal Feature Selection for Algorithmic Fairness [61.767399505764736]
データ管理の統合コンポーネントにおける公平性について検討する。
本稿では,データセットの公平性を保証する特徴のサブコレクションを同定する手法を提案する。
論文 参考訳(メタデータ) (2020-06-10T20:20:10Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。