論文の概要: Decomposing Direct and Indirect Biases in Linear Models under Demographic Parity Constraint
- arxiv url: http://arxiv.org/abs/2511.11294v1
- Date: Fri, 14 Nov 2025 13:27:54 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-11-17 22:42:18.626107
- Title: Decomposing Direct and Indirect Biases in Linear Models under Demographic Parity Constraint
- Title(参考訳): 図形的パリティ制約下での線形モデルにおける直接的・間接的バイアスの分解
- Authors: Bertille Tierny, Arthur Charpentier, François Hu,
- Abstract要約: 本稿では,結果のバイアスを直接的(知覚的)成分と間接的(相関的)成分に分解する後処理フレームワークを提案する。
本手法は, 感度特性と非感度特性の両方を含むモデル係数が, 人口統計学的にどう影響するかを解析的に評価する。
私たちのフレームワークは、再トレーニングを必要とせず、モデル監査と緩和のために実行可能な洞察を提供する。
- 参考スコア(独自算出の注目度): 4.129225533930966
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Linear models are widely used in high-stakes decision-making due to their simplicity and interpretability. Yet when fairness constraints such as demographic parity are introduced, their effects on model coefficients, and thus on how predictive bias is distributed across features, remain opaque. Existing approaches on linear models often rely on strong and unrealistic assumptions, or overlook the explicit role of the sensitive attribute, limiting their practical utility for fairness assessment. We extend the work of (Chzhen and Schreuder, 2022) and (Fukuchi and Sakuma, 2023) by proposing a post-processing framework that can be applied on top of any linear model to decompose the resulting bias into direct (sensitive-attribute) and indirect (correlated-features) components. Our method analytically characterizes how demographic parity reshapes each model coefficient, including those of both sensitive and non-sensitive features. This enables a transparent, feature-level interpretation of fairness interventions and reveals how bias may persist or shift through correlated variables. Our framework requires no retraining and provides actionable insights for model auditing and mitigation. Experiments on both synthetic and real-world datasets demonstrate that our method captures fairness dynamics missed by prior work, offering a practical and interpretable tool for responsible deployment of linear models.
- Abstract(参考訳): 線形モデルは、その単純さと解釈可能性のために、高い意思決定に広く利用されている。
しかし、人口比率のような公平性制約が導入された場合、それらの影響はモデル係数に影響を及ぼし、したがって、機能間で予測バイアスがどのように分散されているかは不透明のままである。
既存の線形モデルに対するアプローチは、しばしば強く非現実的な仮定に依存するか、または感度属性の明示的な役割を見落とし、その実用性を公正性評価に制限する。
我々は、任意の線形モデルの上に適用可能な後処理フレームワークを提案し、その結果のバイアスを直接(感度-属性)と間接(相関-機能)に分解することで、(Chzhen and Schreuder, 2022) と (Fukuchi and Sakuma, 2023) の作業を拡張する。
本手法は, 感度特性と非感度特性の両方を含むモデル係数が, 人口統計学的にどう影響するかを解析的に評価する。
これにより、公平な介入の透過的で特徴レベルの解釈が可能になり、バイアスがどのように相関変数を持続またはシフトするかを明らかにする。
私たちのフレームワークは、再トレーニングを必要とせず、モデル監査と緩和のために実行可能な洞察を提供する。
合成と実世界の両方のデータセットの実験により、我々の手法は以前の作業で見逃された公平さのダイナミクスを捉え、線形モデルのデプロイに責任を負うための実用的で解釈可能なツールを提供することを示した。
関連論文リスト
- Nonparametric Data Attribution for Diffusion Models [57.820618036556084]
生成モデルのデータ属性は、個々のトレーニング例がモデル出力に与える影響を定量化する。
生成画像とトレーニング画像のパッチレベルの類似性によって影響を測定する非パラメトリック属性法を提案する。
論文 参考訳(メタデータ) (2025-10-16T03:37:16Z) - Simulating Biases for Interpretable Fairness in Offline and Online Classifiers [0.35998666903987897]
緩和方法は、モデル結果が公平に調整されることを保証するために重要である。
我々は、制御可能なバイアス注入による合成データセット生成のためのフレームワークを開発する。
実験では、オフラインとオンラインの両方の学習アプローチが採用されている。
論文 参考訳(メタデータ) (2025-07-14T11:04:24Z) - Fair Multivariate Adaptive Regression Splines for Ensuring Equity and
Transparency [1.124958340749622]
学習過程に公平度を組み込んだMARSに基づく公正度予測モデルを提案する。
MARSは、特徴選択を行い、非線形関係を扱い、解釈可能な決定ルールを生成し、変数の最適分割基準を導出する非パラメトリック回帰モデルである。
実世界のデータにfairMARSモデルを適用し、精度とエクイティの観点からその有効性を実証する。
論文 参考訳(メタデータ) (2024-02-23T19:02:24Z) - Hierarchical Bias-Driven Stratification for Interpretable Causal Effect
Estimation [1.6874375111244329]
BICauseTreeは、自然実験が局所的に発生するクラスタを識別する解釈可能なバランシング手法である。
合成および現実的なデータセットを用いて手法の性能を評価し、バイアス-解釈可能性トレードオフを探索し、既存の手法に匹敵することを示す。
論文 参考訳(メタデータ) (2024-01-31T10:58:13Z) - Decoding Susceptibility: Modeling Misbelief to Misinformation Through a Computational Approach [61.04606493712002]
誤報に対する感受性は、観測不可能な不検証の主張に対する信念の度合いを記述している。
既存の感受性研究は、自己報告された信念に大きく依存している。
本稿では,ユーザの潜在感受性レベルをモデル化するための計算手法を提案する。
論文 参考訳(メタデータ) (2023-11-16T07:22:56Z) - Flow Factorized Representation Learning [109.51947536586677]
本稿では、異なる入力変換を定義する潜在確率パスの別個のセットを規定する生成モデルを提案する。
本モデルは,ほぼ同変モデルに近づきながら,標準表現学習ベンチマークにおいて高い確率を達成することを示す。
論文 参考訳(メタデータ) (2023-09-22T20:15:37Z) - Bias-inducing geometries: an exactly solvable data model with fairness implications [12.532003449620607]
我々は、正確に解決可能なデータ不均衡の高次元モデルを導入する。
この合成フレームワークで訓練された学習モデルの典型的特性を解析的に解き放つ。
フェアネス評価によく用いられる観測対象の正確な予測値を得る。
論文 参考訳(メタデータ) (2022-05-31T16:27:57Z) - Distilling Interpretable Models into Human-Readable Code [71.11328360614479]
人間可読性は機械学習モデル解釈可能性にとって重要で望ましい標準である。
従来の方法を用いて解釈可能なモデルを訓練し,それを簡潔で可読なコードに抽出する。
本稿では,幅広いユースケースで効率的に,確実に高品質な結果を生成する分別線形曲線フィッティングアルゴリズムについて述べる。
論文 参考訳(メタデータ) (2021-01-21T01:46:36Z) - Characterizing Fairness Over the Set of Good Models Under Selective
Labels [69.64662540443162]
同様の性能を実現するモデルセットに対して,予測公正性を特徴付けるフレームワークを開発する。
到達可能なグループレベルの予測格差の範囲を計算するためのトラクタブルアルゴリズムを提供します。
選択ラベル付きデータの実証的な課題に対処するために、我々のフレームワークを拡張します。
論文 参考訳(メタデータ) (2021-01-02T02:11:37Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。