論文の概要: Masked Unfairness: Hiding Causality within Zero ATE
- arxiv url: http://arxiv.org/abs/2603.06984v1
- Date: Sat, 07 Mar 2026 02:03:14 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-03-10 15:13:13.51962
- Title: Masked Unfairness: Hiding Causality within Zero ATE
- Title(参考訳): Masked Unfairness:Zero ATEにおける因果関係の維持
- Authors: Zou Yang, Sophia Xiao, Bijan Mazaheri,
- Abstract要約: 私たちは決定レベルでではなく、モデルレベルで公正さを規制しなければならないと論じています。
ATEに基づく規制の下での最適化は、大きな不平等な治療を引き起こす可能性がある。
本研究は,真偽と因果正当性の相違が共起によって引き起こされることを示す。
- 参考スコア(独自算出の注目度): 0.48429188360918735
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Recent work has proposed powerful frameworks, rooted in causal theory, to quantify fairness. Causal inference has primarily emphasized the detection of \emph{average} treatment effects (ATEs), and subsequent notions of fairness have inherited this focus. In this paper, we build on previous concerns about regulation based on averages. In particular, we formulate the "causal masking problem" as a linear program that optimizes an alternative objective, such as maximizing profit or minimizing crime, while retaining a zero ATE (i.e., the ATE between a protected attribute and a decision). By studying the capabilities and limitations of causal masking, we show that optimization under ATE-based regulation may induce significant unequal treatment. We demonstrate that the divergence between true and causally masked fairness is driven by confounding, underscoring the importance of full conditional-independence testing when assessing fairness. Finally, we discuss statistical and information-theoretic limitations that make causally masked solutions very difficult to detect, allowing them to persist for long periods. These results argue that we must regulate fairness at the model-level, rather than at the decision level.
- Abstract(参考訳): 最近の研究は、因果理論に根ざした強力なフレームワークを提案し、公正性を定量化している。
因果推論は主として \emph{average} 治療効果 (ATEs) の検出を強調しており、その後の公平性の概念がこの焦点を継承している。
本稿では,平均値に基づく規制に関する過去の懸念に基づいて構築する。
特に、利益の最大化や犯罪の最小化といった代替目的を最適化する線形プログラムとして「因果マスク問題」を定式化するとともに、0のATE(すなわち、保護された属性と決定の間のATE)を保持する。
因果マスキングの能力と限界を調べることで、ATEに基づく規制の下での最適化は、大きな不平等な治療を引き起こす可能性があることを示す。
本研究は,正当性と因果正当性の相違が,正当性評価における完全条件独立性テストの重要性を強調し,相反によって引き起こされることを示す。
最後に、因果的にマスキングされた解を検出しにくくし、長期間持続する統計的および情報理論的な制限について論じる。
これらの結果は、決定レベルでではなく、モデルレベルで公正さを規制する必要があると主張している。
関連論文リスト
- Partial Identification Approach to Counterfactual Fairness Assessment [50.88100567472179]
未知の対実的公正度尺度を高い信頼性で有界化するためのベイズ的アプローチを導入する。
以上の結果から、人種をアフリカ系アメリカ人に転換する際のCompASスコアに対する肯定的な(不快な)効果と、若年から高齢に移行する際の否定的な(直接的な因果関係)効果が明らかとなった。
論文 参考訳(メタデータ) (2025-09-30T18:35:08Z) - Fairness-Accuracy Trade-Offs: A Causal Perspective [58.06306331390586]
我々は、初めて因果レンズから公正性と正確性の間の張力を分析する。
因果的制約を強制することは、しばしば人口集団間の格差を減少させることを示す。
因果制約付きフェアラーニングのための新しいニューラルアプローチを導入する。
論文 参考訳(メタデータ) (2024-05-24T11:19:52Z) - What Hides behind Unfairness? Exploring Dynamics Fairness in Reinforcement Learning [52.51430732904994]
強化学習問題では、エージェントはリターンを最大化しながら長期的な公正性を考慮する必要がある。
近年の研究では様々なフェアネスの概念が提案されているが、RL問題における不公平性がどのように生じるかは定かではない。
我々は、環境力学から生じる不平等を明示的に捉える、ダイナミックスフェアネスという新しい概念を導入する。
論文 参考訳(メタデータ) (2024-04-16T22:47:59Z) - Equal Opportunity of Coverage in Fair Regression [50.76908018786335]
我々は、予測の不確実性の下で公正な機械学習(ML)を研究し、信頼性と信頼性のある意思決定を可能にする。
本研究は,(1)類似した結果の異なる集団に対するカバー率が近いこと,(2)人口全体のカバー率が一定水準にあること,の2つの特性を達成することを目的としたカバーの平等機会(EOC)を提案する。
論文 参考訳(メタデータ) (2023-11-03T21:19:59Z) - Fairness-aware Federated Minimax Optimization with Convergence Guarantee [10.727328530242461]
フェデレートラーニング(FL)はそのプライバシー保護機能のためにかなりの注目を集めている。
ユーザデータ管理の自由の欠如は、モデルが人種や性別などのセンシティブな要因に偏っている、グループフェアネスの問題につながる可能性がある。
本稿では,FLにおけるグループフェアネス問題に明示的に対処するために,拡張ラグランジアン法(FFALM)を用いたフェアフェデレーション平均化アルゴリズムを提案する。
論文 参考訳(メタデータ) (2023-07-10T08:45:58Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。