論文の概要: The Unbearable Weight of Massive Privilege: Revisiting Bias-Variance
Trade-Offs in the Context of Fair Prediction
- arxiv url: http://arxiv.org/abs/2302.08704v1
- Date: Fri, 17 Feb 2023 05:34:35 GMT
- ステータス: 処理完了
- システム内更新日: 2023-02-20 15:49:37.537922
- Title: The Unbearable Weight of Massive Privilege: Revisiting Bias-Variance
Trade-Offs in the Context of Fair Prediction
- Title(参考訳): 大規模刑務所の耐え難い重量:公正な予測の文脈におけるバイアス変動貿易の見直し
- Authors: Falaah Arif Khan, Julia Stoyanovich
- Abstract要約: 単一モデルによるトレードオフを改善することを目的とした条件付きid(ciid)モデルを提案する。
我々は、CompASおよびフォークテーブルデータセット上で、我々の設定を実証的にテストする。
分析の結果,条件付きモデルが好まれる原則的手順や具体的な実世界のユースケースが存在する可能性が示唆された。
- 参考スコア(独自算出の注目度): 7.975779552420981
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: In this paper we revisit the bias-variance decomposition of model error from
the perspective of designing a fair classifier: we are motivated by the widely
held socio-technical belief that noise variance in large datasets in social
domains tracks demographic characteristics such as gender, race, disability,
etc. We propose a conditional-iid (ciid) model built from group-specific
classifiers that seeks to improve on the trade-offs made by a single model (iid
setting). We theoretically analyze the bias-variance decomposition of different
models in the Gaussian Mixture Model, and then empirically test our setup on
the COMPAS and folktables datasets. We instantiate the ciid model with two
procedures that improve "fairness" by conditioning out undesirable effects:
first, by conditioning directly on sensitive attributes, and second, by
clustering samples into groups and conditioning on cluster membership (blind to
protected group membership).
Our analysis suggests that there might be principled procedures and concrete
real-world use cases under which conditional models are preferred, and our
striking empirical results strongly indicate that non-iid settings, such as the
ciid setting proposed here, might be more suitable for big data applications in
social contexts.
- Abstract(参考訳): 本稿では, モデル誤差の偏差分解を, 公正分類器の設計の観点から再考する: 我々は, 社会的領域における大きなデータセットにおけるノイズ分散が, 性別, 人種, 障害などの人口統計学的特徴を追跡するという社会技術的信念に動機付けられている。
単一モデル(ID設定)によるトレードオフを改善するために,グループ固有の分類器から構築した条件付きID(ciid)モデルを提案する。
理論上はガウス混合モデルにおいて異なるモデルのバイアス分散分解を解析し、コンパスおよびフォークテーブルデータセット上で実験的にセットアップをテストした。
まず,センシティブな属性を直接コンディショニングし,次に,サンプルをグループにクラスタリングし,クラスタメンバシップをコンディショニングすることで,望ましくない効果を条件付けすることで,"フェアネス"を改善する2つの手順でciidモデルをインスタンス化する。
分析の結果,条件付きモデルが好まれる基本的手順や具体的な実世界のユースケースが存在する可能性が示唆され,本論文では,シド設定などの非イド設定が,社会的文脈におけるビッグデータアプリケーションに適している可能性が強く示唆された。
関連論文リスト
- MITA: Bridging the Gap between Model and Data for Test-time Adaptation [68.62509948690698]
テスト時間適応(TTA)は、モデルの一般化性を高めるための有望なパラダイムとして登場した。
本稿では,Met-In-The-MiddleをベースとしたMITAを提案する。
論文 参考訳(メタデータ) (2024-10-12T07:02:33Z) - DualFair: Fair Representation Learning at Both Group and Individual
Levels via Contrastive Self-supervision [73.80009454050858]
この研究は、DualFairと呼ばれる自己教師型モデルを提示し、学習された表現から性別や人種などのセンシティブな属性をデバイアスすることができる。
我々のモデルは、グループフェアネスと対実フェアネスという2つのフェアネス基準を共同で最適化する。
論文 参考訳(メタデータ) (2023-03-15T07:13:54Z) - On how to avoid exacerbating spurious correlations when models are
overparameterized [33.315813572333745]
VS-lossは、たとえスプリアス機能が強いとしても、マイノリティに公平なモデルを学ぶことを示す。
これまでの研究と比較すると、我々の境界はより一般的なモデルであり、それらは漸近的ではなく、極端な不均衡のシナリオにも適用される。
論文 参考訳(メタデータ) (2022-06-25T21:53:44Z) - Cross-model Fairness: Empirical Study of Fairness and Ethics Under Model Multiplicity [10.144058870887061]
1つの予測器が等しく機能するモデルのグループからアドホックに選択された場合、個人は害を受ける可能性があると我々は主張する。
これらの不公平性は実生活で容易に発見でき、技術的手段だけで緩和することは困難である可能性が示唆された。
論文 参考訳(メタデータ) (2022-03-14T14:33:39Z) - FairIF: Boosting Fairness in Deep Learning via Influence Functions with
Validation Set Sensitive Attributes [51.02407217197623]
本稿では,FAIRIFという2段階の学習アルゴリズムを提案する。
サンプル重みが計算される再重み付きデータセットの損失を最小限に抑える。
FAIRIFは、様々な種類のバイアスに対して、フェアネスとユーティリティのトレードオフを良くしたモデルが得られることを示す。
論文 参考訳(メタデータ) (2022-01-15T05:14:48Z) - Deconfounding Scores: Feature Representations for Causal Effect
Estimation with Weak Overlap [140.98628848491146]
推定対象の偏りを伴わずに高い重なりを生じさせる,デコンファウンディングスコアを導入する。
分離スコアは観測データで識別可能なゼロ共分散条件を満たすことを示す。
特に,この手法が標準正規化の魅力的な代替となることを示す。
論文 参考訳(メタデータ) (2021-04-12T18:50:11Z) - Characterizing Fairness Over the Set of Good Models Under Selective
Labels [69.64662540443162]
同様の性能を実現するモデルセットに対して,予測公正性を特徴付けるフレームワークを開発する。
到達可能なグループレベルの予測格差の範囲を計算するためのトラクタブルアルゴリズムを提供します。
選択ラベル付きデータの実証的な課題に対処するために、我々のフレームワークを拡張します。
論文 参考訳(メタデータ) (2021-01-02T02:11:37Z) - An Investigation of Why Overparameterization Exacerbates Spurious
Correlations [98.3066727301239]
この動作を駆動するトレーニングデータの2つの重要な特性を特定します。
モデルの"記憶"に対する帰納的バイアスが,パラメータ化の超過を損なう可能性を示す。
論文 参考訳(メタデータ) (2020-05-09T01:59:13Z) - Fairness by Explicability and Adversarial SHAP Learning [0.0]
本稿では,外部監査役の役割とモデル説明可能性を強調するフェアネスの新たな定義を提案する。
逆代理モデルのSHAP値から構築した正規化を用いてモデルバイアスを緩和するフレームワークを開発する。
合成データセット、UCIアダルト(国勢調査)データセット、実世界の信用評価データセットである。
論文 参考訳(メタデータ) (2020-03-11T14:36:34Z) - Counterfactual fairness: removing direct effects through regularization [0.0]
制御ダイレクトエフェクト(CDE)による因果関係を考慮したフェアネスの新たな定義を提案する。
我々は古典的公正度対策に取り組むための正規化を開発し、新しい公正度定義を満たす因果正則化を示す。
その結果,モデル性能を低下させることなく,予測から不公平さを軽減できることが判明した。
論文 参考訳(メタデータ) (2020-02-25T10:13:55Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。