論文の概要: When Personalization Harms: Reconsidering the Use of Group Attributes in
Prediction
- arxiv url: http://arxiv.org/abs/2206.02058v1
- Date: Sat, 4 Jun 2022 20:49:31 GMT
- ステータス: 処理完了
- システム内更新日: 2022-06-11 14:07:04.793823
- Title: When Personalization Harms: Reconsidering the Use of Group Attributes in
Prediction
- Title(参考訳): パーソナライゼーションのハーム:予測におけるグループ属性の利用を再考する
- Authors: Vinith M. Suriyakumar, Marzyeh Ghassemi, Berk Ustun
- Abstract要約: パーソナライズに対する標準的なアプローチは、個人データを提供するすべてのグループのパフォーマンス向上に失敗することを示す。
予測においてグループ属性の公正な使用を保証するため,集団選好保証を提案する。
- 参考スコア(独自算出の注目度): 10.633713789134479
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The standard approach to personalization in machine learning consists of
training a model with group attributes like sex, age group, and blood type. In
this work, we show that this approach to personalization fails to improve
performance for all groups who provide personal data. We discuss how this
effect inflicts harm in applications where models assign predictions on the
basis of group membership. We propose collective preference guarantees to
ensure the fair use of group attributes in prediction. We characterize how
common approaches to personalization violate fair use due to failures in model
development and deployment. We conduct a comprehensive empirical study of
personalization in clinical prediction models. Our results highlight the
prevalence of fair use violations, demonstrate actionable interventions to
mitigate harm and underscore the need to measure the gains of personalization
for all groups who provide personal data.
- Abstract(参考訳): 機械学習におけるパーソナライズに対する標準的なアプローチは、性別、年齢、血液型といったグループ属性を持つモデルをトレーニングすることである。
本稿では,この個人化アプローチが,個人データを提供するすべてのグループのパフォーマンス向上に失敗していることを示す。
モデルがグループメンバーシップに基づいて予測を割り当てるアプリケーションにおいて、この効果がどう影響するかを論じる。
予測においてグループ属性の公正な使用を保証するため,集団選好保証を提案する。
モデル開発とデプロイメントの失敗により、パーソナライズに対する一般的なアプローチが公正な使用にどう影響するかを特徴付けます。
臨床予測モデルにおけるパーソナライゼーションの包括的実証研究を行う。
本研究は,公正な使用違反の発生率を浮き彫りにし,被害を軽減するための行動可能な介入を示し,個人データを提供するすべてのグループに対してパーソナライゼーションの利益を測定する必要性を強調する。
関連論文リスト
- When Fairness Meets Privacy: Exploring Privacy Threats in Fair Binary Classifiers via Membership Inference Attacks [17.243744418309593]
本研究では,公平度差分結果に基づく公平度向上モデルに対する効率的なMIA手法を提案する。
また、プライバシー漏洩を緩和するための潜在的戦略についても検討する。
論文 参考訳(メタデータ) (2023-11-07T10:28:17Z) - Improving Adaptive Conformal Prediction Using Self-Supervised Learning [72.2614468437919]
我々は、既存の予測モデルの上に自己教師付きプレテキストタスクを持つ補助モデルを訓練し、自己教師付きエラーを付加的な特徴として用いて、非整合性スコアを推定する。
合成データと実データの両方を用いて、効率(幅)、欠陥、共形予測間隔の超過といった付加情報の利点を実証的に実証する。
論文 参考訳(メタデータ) (2023-02-23T18:57:14Z) - The Unbearable Weight of Massive Privilege: Revisiting Bias-Variance
Trade-Offs in the Context of Fair Prediction [7.975779552420981]
単一モデルによるトレードオフを改善することを目的とした条件付きid(ciid)モデルを提案する。
我々は、CompASおよびフォークテーブルデータセット上で、我々の設定を実証的にテストする。
分析の結果,条件付きモデルが好まれる原則的手順や具体的な実世界のユースケースが存在する可能性が示唆された。
論文 参考訳(メタデータ) (2023-02-17T05:34:35Z) - "You Can't Fix What You Can't Measure": Privately Measuring Demographic
Performance Disparities in Federated Learning [78.70083858195906]
グループメンバーシップのプライバシを保護しつつ,グループ間でのパフォーマンスの差異を測定するための,差分プライベートなメカニズムを提案する。
我々の結果は、以前の研究の示唆に反して、プライバシ保護は必ずしもフェデレーションモデルの性能格差の特定と矛盾しているわけではないことを示している。
論文 参考訳(メタデータ) (2022-06-24T09:46:43Z) - Contrastive Learning for Fair Representations [50.95604482330149]
訓練された分類モデルは、意図せずバイアスのある表現や予測につながる可能性がある。
対戦訓練のような既存の分類モデルのデバイアス化手法は、訓練に高価であり、最適化が困難であることが多い。
比較学習を取り入れたバイアス軽減手法を提案し、同じクラスラベルを共有するインスタンスに類似した表現を推奨する。
論文 参考訳(メタデータ) (2021-09-22T10:47:51Z) - Measuring Fairness Under Unawareness of Sensitive Attributes: A
Quantification-Based Approach [131.20444904674494]
センシティブな属性の無意識下でのグループフェアネスを測定する問題に取り組む。
定量化手法は, フェアネスと無意識の問題に対処するのに特に適していることを示す。
論文 参考訳(メタデータ) (2021-09-17T13:45:46Z) - Unsupervised Learning of Debiased Representations with Pseudo-Attributes [85.5691102676175]
教師なし方式で,単純かつ効果的な脱バイアス手法を提案する。
特徴埋め込み空間上でクラスタリングを行い、クラスタリング結果を利用して疑似属性を識別する。
次に,非偏り表現を学習するために,クラスタベースの新しい重み付け手法を用いる。
論文 参考訳(メタデータ) (2021-08-06T05:20:46Z) - Characterizing Fairness Over the Set of Good Models Under Selective
Labels [69.64662540443162]
同様の性能を実現するモデルセットに対して,予測公正性を特徴付けるフレームワークを開発する。
到達可能なグループレベルの予測格差の範囲を計算するためのトラクタブルアルゴリズムを提供します。
選択ラベル付きデータの実証的な課題に対処するために、我々のフレームワークを拡張します。
論文 参考訳(メタデータ) (2021-01-02T02:11:37Z) - Fairness by Explicability and Adversarial SHAP Learning [0.0]
本稿では,外部監査役の役割とモデル説明可能性を強調するフェアネスの新たな定義を提案する。
逆代理モデルのSHAP値から構築した正規化を用いてモデルバイアスを緩和するフレームワークを開発する。
合成データセット、UCIアダルト(国勢調査)データセット、実世界の信用評価データセットである。
論文 参考訳(メタデータ) (2020-03-11T14:36:34Z) - Counterfactual fairness: removing direct effects through regularization [0.0]
制御ダイレクトエフェクト(CDE)による因果関係を考慮したフェアネスの新たな定義を提案する。
我々は古典的公正度対策に取り組むための正規化を開発し、新しい公正度定義を満たす因果正則化を示す。
その結果,モデル性能を低下させることなく,予測から不公平さを軽減できることが判明した。
論文 参考訳(メタデータ) (2020-02-25T10:13:55Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。