論文の概要: Understanding Fairness and Prediction Error through Subspace Decomposition and Influence Analysis
- arxiv url: http://arxiv.org/abs/2510.23935v1
- Date: Mon, 27 Oct 2025 23:38:00 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-29 15:35:36.621135
- Title: Understanding Fairness and Prediction Error through Subspace Decomposition and Influence Analysis
- Title(参考訳): 部分空間分解と影響解析によるフェアネスと予測誤差の理解
- Authors: Enze Shi, Pankaj Bhagwat, Zhixian Yang, Linglong Kong, Bei Jiang,
- Abstract要約: 本稿では,データ表現を調整し,予測ユーティリティと公正性のバランスをとるためのフレームワークを提案する。
本稿では,共有部分空間が付加されるにつれて,予測誤差と公平性ギャップがどのように進化するかを理論的に分析する。
提案手法は, 予測性能を維持しつつ, 公平性を効果的に向上することを示す。
- 参考スコア(独自算出の注目度): 20.446739075831722
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Machine learning models have achieved widespread success but often inherit and amplify historical biases, resulting in unfair outcomes. Traditional fairness methods typically impose constraints at the prediction level, without addressing underlying biases in data representations. In this work, we propose a principled framework that adjusts data representations to balance predictive utility and fairness. Using sufficient dimension reduction, we decompose the feature space into target-relevant, sensitive, and shared components, and control the fairness-utility trade-off by selectively removing sensitive information. We provide a theoretical analysis of how prediction error and fairness gaps evolve as shared subspaces are added, and employ influence functions to quantify their effects on the asymptotic behavior of parameter estimates. Experiments on both synthetic and real-world datasets validate our theoretical insights and show that the proposed method effectively improves fairness while preserving predictive performance.
- Abstract(参考訳): 機械学習モデルは広く成功したが、しばしば歴史的バイアスを継承し、増幅し、不公平な結果をもたらす。
従来の公正法は、データ表現の根底にあるバイアスに対処することなく、予測レベルで制約を課すのが一般的である。
本研究では,データ表現を調整し,予測ユーティリティと公平性のバランスをとるためのフレームワークを提案する。
十分な次元の縮小を用いて、特徴空間を目標関連、センシティブ、共有コンポーネントに分解し、センシティブな情報を選択的に取り除き、フェアネス・ユーティリティ・トレードオフを制御する。
本稿では,共有部分空間の追加に伴って予測誤差と公平性ギャップがどう発展するかを理論的に分析し,その影響関数を用いてパラメータ推定の漸近的挙動に与える影響を定量化する。
提案手法は, 予測性能を維持しつつ, 公平性を効果的に向上することを示す。
関連論文リスト
- Overcoming Fairness Trade-offs via Pre-processing: A Causal Perspective [0.0]
公正な判断のための機械学習モデルのトレーニングには、2つの重要な課題がある。
公平さと正確さのトレードオフは、その予測性能を低下させる公正さを強制することによる。
異なる公正度の測定の不整合性は、別のトレードオフを引き起こします。
論文 参考訳(メタデータ) (2025-01-24T18:33:18Z) - Identifying and Mitigating Social Bias Knowledge in Language Models [52.52955281662332]
個々人の社会的偏見をきめ細かなキャリブレーションを可能にする新しいデバイアス・アプローチであるFairness Stamp(FAST)を提案する。
FASTは最先端のベースラインを超え、デバイアス性能が優れている。
これは、大きな言語モデルにおける公平性を達成するためのきめ細かいデバイアス戦略の可能性を強調している。
論文 参考訳(メタデータ) (2024-08-07T17:14:58Z) - Learning for Counterfactual Fairness from Observational Data [62.43249746968616]
公正な機械学習は、人種、性別、年齢などの特定の保護された(感受性のある)属性によって記述されるある種のサブグループに対して、学習モデルのバイアスを取り除くことを目的としている。
カウンターファクトフェアネスを達成するための既存の手法の前提条件は、データに対する因果モデルの事前の人間の知識である。
本研究では,新しいフレームワークCLAIREを提案することにより,因果関係を付与せずに観測データから対実的に公正な予測を行う問題に対処する。
論文 参考訳(メタデータ) (2023-07-17T04:08:29Z) - RobustFair: Adversarial Evaluation through Fairness Confusion Directed
Gradient Search [8.278129731168127]
ディープニューラルネットワーク(DNN)は、様々な敵の摂動に対する脆弱性のため、しばしば課題に直面している。
本稿では, 偽りや偏りのある摂動を受ける場合のDNNの正確な公平性を評価するための新しいアプローチであるRobustFairを紹介する。
論文 参考訳(メタデータ) (2023-05-18T12:07:29Z) - Fairness through Aleatoric Uncertainty [18.95295731419523]
フェアネス・ユーティリティ・トレードオフを改善するために、アレタリック不確実性(例えば、データのあいまいさ)を活用するという考え方を紹介します。
我々の中心的な仮説は、アレタリック不確実性はアルゴリズムの公正性の鍵となる要素であるということである。
次に,アレータリック不確実性が高い場合の公平性を向上し,他の分野での有効性を向上させるための基本モデルを提案する。
論文 参考訳(メタデータ) (2023-04-07T13:50:57Z) - Systematic Evaluation of Predictive Fairness [60.0947291284978]
バイアス付きデータセットのトレーニングにおけるバイアスの緩和は、重要なオープンな問題である。
複数のタスクにまたがる様々なデバイアス化手法の性能について検討する。
データ条件が相対モデルの性能に強い影響を与えることがわかった。
論文 参考訳(メタデータ) (2022-10-17T05:40:13Z) - Increasing Fairness in Predictions Using Bias Parity Score Based Loss
Function Regularization [0.8594140167290099]
従来のバイナリクロスエントロピーに基づく精度損失と合わせて使用する正則化成分の公平性向上のファミリを導入する。
我々は、人口統計に基づく成人所得データセットと同様に、再分配予測タスクの文脈に展開する。
論文 参考訳(メタデータ) (2021-11-05T17:42:33Z) - Counterfactual Representation Learning with Balancing Weights [74.67296491574318]
観察データによる因果推論の鍵は、それぞれの治療タイプに関連する予測的特徴のバランスを達成することである。
近年の文献では、この目標を達成するために表現学習を探求している。
因果効果を柔軟かつスケーラブルかつ正確に推定するアルゴリズムを開発した。
論文 参考訳(メタデータ) (2020-10-23T19:06:03Z) - Double Robust Representation Learning for Counterfactual Prediction [68.78210173955001]
そこで本稿では, 対実予測のための2次ロバスト表現を学習するための, スケーラブルな新しい手法を提案する。
我々は、個々の治療効果と平均的な治療効果の両方に対して、堅牢で効率的な対実的予測を行う。
このアルゴリズムは,実世界の最先端技術と合成データとの競合性能を示す。
論文 参考訳(メタデータ) (2020-10-15T16:39:26Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。