論文の概要: On the Privacy Risks of Algorithmic Fairness
- arxiv url: http://arxiv.org/abs/2011.03731v4
- Date: Wed, 7 Apr 2021 05:43:22 GMT
- ステータス: 処理完了
- システム内更新日: 2022-09-28 22:25:52.225957
- Title: On the Privacy Risks of Algorithmic Fairness
- Title(参考訳): アルゴリズム的公平性のプライバシーリスクについて
- Authors: Hongyan Chang, Reza Shokri
- Abstract要約: 我々は、グループフェアネスのプライバシーリスクを、メンバーシップ推論攻撃のレンズを通して調査する。
公平さはプライバシーの犠牲であり、このコストは平等に分配されない。
- 参考スコア(独自算出の注目度): 9.429448411561541
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Algorithmic fairness and privacy are essential pillars of trustworthy machine
learning. Fair machine learning aims at minimizing discrimination against
protected groups by, for example, imposing a constraint on models to equalize
their behavior across different groups. This can subsequently change the
influence of training data points on the fair model, in a disproportionate way.
We study how this can change the information leakage of the model about its
training data. We analyze the privacy risks of group fairness (e.g., equalized
odds) through the lens of membership inference attacks: inferring whether a
data point is used for training a model. We show that fairness comes at the
cost of privacy, and this cost is not distributed equally: the information
leakage of fair models increases significantly on the unprivileged subgroups,
which are the ones for whom we need fair learning. We show that the more biased
the training data is, the higher the privacy cost of achieving fairness for the
unprivileged subgroups will be. We provide comprehensive empirical analysis for
general machine learning algorithms.
- Abstract(参考訳): アルゴリズムの公正性とプライバシは、信頼できる機械学習の重要な柱である。
公正な機械学習は、保護されたグループに対する差別を最小限にすることを目的としている。
これにより、トレーニングデータポイントがフェアモデルに与える影響を、不釣り合いな方法で変更することができる。
そこで本研究では,学習データに関するモデルの情報漏洩をいかに変化させるか検討する。
我々は、メンバーシップ推論攻撃のレンズを通して、グループフェアネスのプライバシーリスク(例えば、等化オッズ)を分析する:データポイントがモデルのトレーニングに使用されるかどうかを推測する。
公正さはプライバシーの犠牲であり、このコストは平等に分配されない。公正モデルの情報漏洩は、公正な学習を必要とするサブグループにおいて著しく増加する。
トレーニングデータのバイアスが大きいほど、特権のないサブグループの公正性を達成するためのプライバシーコストが高くなります。
汎用機械学習アルゴリズムに対する包括的経験分析を提供する。
関連論文リスト
- Fairness Without Harm: An Influence-Guided Active Sampling Approach [32.173195437797766]
我々は、モデルの精度に害を与えることなく、グループフェアネスの格差を軽減するモデルを訓練することを目指している。
公正なアクティブな学習アプローチのような現在のデータ取得方法は、通常、アノテートセンシティブな属性を必要とする。
トレーニンググループアノテーションに依存しない抽出可能なアクティブデータサンプリングアルゴリズムを提案する。
論文 参考訳(メタデータ) (2024-02-20T07:57:38Z) - Learning for Counterfactual Fairness from Observational Data [62.43249746968616]
公正な機械学習は、人種、性別、年齢などの特定の保護された(感受性のある)属性によって記述されるある種のサブグループに対して、学習モデルのバイアスを取り除くことを目的としている。
カウンターファクトフェアネスを達成するための既存の手法の前提条件は、データに対する因果モデルの事前の人間の知識である。
本研究では,新しいフレームワークCLAIREを提案することにより,因果関係を付与せずに観測データから対実的に公正な予測を行う問題に対処する。
論文 参考訳(メタデータ) (2023-07-17T04:08:29Z) - DualFair: Fair Representation Learning at Both Group and Individual
Levels via Contrastive Self-supervision [73.80009454050858]
この研究は、DualFairと呼ばれる自己教師型モデルを提示し、学習された表現から性別や人種などのセンシティブな属性をデバイアスすることができる。
我々のモデルは、グループフェアネスと対実フェアネスという2つのフェアネス基準を共同で最適化する。
論文 参考訳(メタデータ) (2023-03-15T07:13:54Z) - Understanding Unfairness in Fraud Detection through Model and Data Bias
Interactions [4.159343412286401]
アルゴリズムの不公平性は、データ内のモデルとバイアスの間の相互作用に起因すると我々は主張する。
フェアネスブラインドMLアルゴリズムが示す公平さと正確さのトレードオフに関する仮説を、異なるデータバイアス設定下で検討する。
論文 参考訳(メタデータ) (2022-07-13T15:18:30Z) - "You Can't Fix What You Can't Measure": Privately Measuring Demographic
Performance Disparities in Federated Learning [78.70083858195906]
グループメンバーシップのプライバシを保護しつつ,グループ間でのパフォーマンスの差異を測定するための,差分プライベートなメカニズムを提案する。
我々の結果は、以前の研究の示唆に反して、プライバシ保護は必ずしもフェデレーションモデルの性能格差の特定と矛盾しているわけではないことを示している。
論文 参考訳(メタデータ) (2022-06-24T09:46:43Z) - SF-PATE: Scalable, Fair, and Private Aggregation of Teacher Ensembles [50.90773979394264]
本稿では、個人の機密情報のプライバシーを保護しつつ、差別的でない予測者の学習を可能にするモデルについて検討する。
提案モデルの主な特徴は、プライバシ保護とフェアモデルを作成するために、オフ・ザ・セルフと非プライベートフェアモデルの採用を可能にすることである。
論文 参考訳(メタデータ) (2022-04-11T14:42:54Z) - Fair Group-Shared Representations with Normalizing Flows [68.29997072804537]
本研究では,異なるグループに属する個人を1つのグループにマッピングできる公正表現学習アルゴリズムを開発した。
提案手法は,他の公正表現学習アルゴリズムと競合することを示す。
論文 参考訳(メタデータ) (2022-01-17T10:49:49Z) - Enforcing fairness in private federated learning via the modified method
of differential multipliers [1.3381749415517021]
差分プライバシーによるフェデレーション学習、あるいはプライベートフェデレーション学習は、ユーザのプライバシを尊重しながら機械学習モデルをトレーニングする戦略を提供する。
本稿では,ユーザのデータがデバイスを離れないプライベートフェデレーション学習において,グループフェアネスを強制するアルゴリズムを提案する。
論文 参考訳(メタデータ) (2021-09-17T15:28:47Z) - Fairness in Semi-supervised Learning: Unlabeled Data Help to Reduce
Discrimination [53.3082498402884]
機械学習の台頭における投機は、機械学習モデルによる決定が公正かどうかである。
本稿では,未ラベルデータのラベルを予測するための擬似ラベリングを含む,前処理フェーズにおける公平な半教師付き学習の枠組みを提案する。
偏見、分散、ノイズの理論的分解分析は、半教師付き学習における差別の異なる源とそれらが公平性に与える影響を浮き彫りにする。
論文 参考訳(メタデータ) (2020-09-25T05:48:56Z) - Fairness without Demographics through Adversarially Reweighted Learning [20.803276801890657]
保護されたグループメンバーシップさえ知らない場合、フェアネスを改善するためにMLモデルをトレーニングします。
特に,非保護機能やタスクラベルは公平性の問題を特定する上で有用である,という仮説を立てる。
以上の結果から,ARLはRawlsian Max-Minフェアネスを向上し,複数のデータセットにおける最悪の保護グループに対するAUCの顕著な改善が見られた。
論文 参考訳(メタデータ) (2020-06-23T16:06:52Z) - On Adversarial Bias and the Robustness of Fair Machine Learning [11.584571002297217]
異なるサイズと分布の群に同じ重要性を与えることで、トレーニングデータにおけるバイアスの影響を防止できることが、ロバストネスと矛盾する可能性があることを示す。
少数のトレーニングデータのサンプリングやラベル付けを制御できる敵は、制約のないモデルで達成できる以上のテスト精度を著しく削減することができる。
我々は、複数のアルゴリズムとベンチマークデータセットに対する攻撃の実証的な評価を通じて、公正な機械学習の堅牢性を分析する。
論文 参考訳(メタデータ) (2020-06-15T18:17:44Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。