論文の概要: Reconsidering Fairness Through Unawareness from the Perspective of Model Multiplicity
- arxiv url: http://arxiv.org/abs/2505.16638v1
- Date: Thu, 22 May 2025 13:11:33 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-05-23 17:12:48.306715
- Title: Reconsidering Fairness Through Unawareness from the Perspective of Model Multiplicity
- Title(参考訳): モデル多重性の観点からの無意識による公平性の再考
- Authors: Benedikt Höltgen, Nuria Oliver,
- Abstract要約: 我々は,FtUが必ずしも精度を低下させることなく,アルゴリズムによる識別を低減できることを理論的かつ実証的に示す。
現実のアプリケーションでは、FtUが効率を損なうことなく、より公平なポリシーの展開にどのように貢献できるかを説明します。
- 参考スコア(独自算出の注目度): 7.171084490238815
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Fairness through Unawareness (FtU) describes the idea that discrimination against demographic groups can be avoided by not considering group membership in the decisions or predictions. This idea has long been criticized in the machine learning literature as not being sufficient to ensure fairness. In addition, the use of additional features is typically thought to increase the accuracy of the predictions for all groups, so that FtU is sometimes thought to be detrimental to all groups. In this paper, we show both theoretically and empirically that FtU can reduce algorithmic discrimination without necessarily reducing accuracy. We connect this insight with the literature on Model Multiplicity, to which we contribute with novel theoretical and empirical results. Furthermore, we illustrate how, in a real-life application, FtU can contribute to the deployment of more equitable policies without losing efficacy. Our findings suggest that FtU is worth considering in practical applications, particularly in high-risk scenarios, and that the use of protected attributes such as gender in predictive models should be accompanied by a clear and well-founded justification.
- Abstract(参考訳): FtU (Fairness through Unawareness) は、人口集団に対する差別は、決定や予測においてグループメンバーシップを考慮せずに回避できるという考えを記述している。
この考え方は、機械学習文学において、公平性を保証するには不十分であるとして、長い間批判されてきた。
加えて、追加機能の使用は、典型的には全てのグループに対する予測の精度を高めると考えられており、FtUはすべてのグループに対して有害であると考えられていることもある。
本稿では,FtUが必ずしも精度を低下させることなく,アルゴリズムの識別を低減できることを理論的および実証的に示す。
我々は、この知見をモデル乗法に関する文献と結びつけ、新しい理論的および実証的な結果に寄与する。
さらに、現実のアプリケーションでは、FtUが効率を損なうことなく、より公平なポリシーの展開にどのように貢献できるかを説明します。
以上の結果から,FtUは,特にリスクの高いシナリオにおける実践的応用に価値があり,予測モデルにおける性別などの保護属性の使用には,明確かつしっかりとした正当化が伴うことが示唆された。
関連論文リスト
- Fairness Evaluation with Item Response Theory [10.871079276188649]
本稿では機械学習(ML)モデルにおける公平性を評価するための新しいFair-IRTフレームワークを提案する。
項目特性曲線(ICC)の詳細な説明は、特定の個人に対して提供される。
公平性評価ツールとしてのこのフレームワークの有効性を実証する実験を行った。
論文 参考訳(メタデータ) (2024-10-20T22:25:20Z) - Advancing Counterfactual Inference through Nonlinear Quantile Regression [77.28323341329461]
ニューラルネットワークで実装された効率的かつ効果的な対実的推論のためのフレームワークを提案する。
提案手法は、推定された反事実結果から見つからないデータまでを一般化する能力を高める。
複数のデータセットで実施した実証実験の結果は、我々の理論的な主張に対する説得力のある支持を提供する。
論文 参考訳(メタデータ) (2023-06-09T08:30:51Z) - Reconciling Predictive and Statistical Parity: A Causal Approach [68.59381759875734]
本稿では,予測パリティに付随する公平度対策のための因果分解式を提案する。
統計的および予測パリティの概念は、実際には互いに排他的ではなく、相補的であり、公正の概念のスペクトルにまたがっていることを示す。
論文 参考訳(メタデータ) (2023-06-08T09:23:22Z) - Synergies between Disentanglement and Sparsity: Generalization and
Identifiability in Multi-Task Learning [79.83792914684985]
我々は,最大スパース基底予測器が不整合表現をもたらす条件を提供する新しい識別可能性の結果を証明した。
この理論的な結果から,両レベル最適化問題に基づくアンタングル表現学習の実践的アプローチを提案する。
論文 参考訳(メタデータ) (2022-11-26T21:02:09Z) - Equal Experience in Recommender Systems [21.298427869586686]
我々は、バイアスデータの存在下で不公平を規制するために、新しい公正の概念(平等な経験と呼ぶ)を導入する。
本稿では、正規化項としての公正性の概念を取り入れた最適化フレームワークを提案し、最適化を解く計算効率の良いアルゴリズムを導入する。
論文 参考訳(メタデータ) (2022-10-12T05:53:05Z) - Longitudinal Fairness with Censorship [1.5688552250473473]
我々は、適用可能な公正度対策を考案し、デバイアスアルゴリズムを提案し、検閲なしで公正度を橋渡しするために必要な理論的構造を提供する。
検閲された4つのデータセットに対する実験により、我々のアプローチの有効性が確認された。
論文 参考訳(メタデータ) (2022-03-30T03:08:40Z) - A Low Rank Promoting Prior for Unsupervised Contrastive Learning [108.91406719395417]
提案手法は,従来の低階の促進をコントラスト学習の枠組みに効果的に組み込む新しい確率的グラフィカルモデルを構築する。
我々の仮説は、同じインスタンスクラスに属するすべてのサンプルが、小さな次元の同じ部分空間上にあることを明示的に要求する。
実証的な証拠は、提案アルゴリズムが複数のベンチマークにおける最先端のアプローチを明らかに上回っていることを示している。
論文 参考訳(メタデータ) (2021-08-05T15:58:25Z) - Fairness without Demographics through Adversarially Reweighted Learning [20.803276801890657]
保護されたグループメンバーシップさえ知らない場合、フェアネスを改善するためにMLモデルをトレーニングします。
特に,非保護機能やタスクラベルは公平性の問題を特定する上で有用である,という仮説を立てる。
以上の結果から,ARLはRawlsian Max-Minフェアネスを向上し,複数のデータセットにおける最悪の保護グループに対するAUCの顕著な改善が見られた。
論文 参考訳(メタデータ) (2020-06-23T16:06:52Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。