論文の概要: Dikaios: Privacy Auditing of Algorithmic Fairness via Attribute
Inference Attacks
- arxiv url: http://arxiv.org/abs/2202.02242v1
- Date: Fri, 4 Feb 2022 17:19:59 GMT
- ステータス: 処理完了
- システム内更新日: 2022-02-07 16:05:38.426984
- Title: Dikaios: Privacy Auditing of Algorithmic Fairness via Attribute
Inference Attacks
- Title(参考訳): Dikaios: 属性推論攻撃によるアルゴリズムフェアネスのプライバシ監査
- Authors: Jan Aalmoes, Vasisht Duddu, Antoine Boutet
- Abstract要約: モデルビルダーのための公正性アルゴリズムのためのプライバシ監査ツールであるDikaiosを提案する。
適応予測しきい値を持つ属性推論攻撃は,前回の攻撃よりも有意に優れていた。
- 参考スコア(独自算出の注目度): 0.5801044612920815
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Machine learning (ML) models have been deployed for high-stakes applications.
Due to class imbalance in the sensitive attribute observed in the datasets, ML
models are unfair on minority subgroups identified by a sensitive attribute,
such as race and sex. In-processing fairness algorithms ensure model
predictions are independent of sensitive attribute. Furthermore, ML models are
vulnerable to attribute inference attacks where an adversary can identify the
values of sensitive attribute by exploiting their distinguishable model
predictions. Despite privacy and fairness being important pillars of
trustworthy ML, the privacy risk introduced by fairness algorithms with respect
to attribute leakage has not been studied. We identify attribute inference
attacks as an effective measure for auditing blackbox fairness algorithms to
enable model builder to account for privacy and fairness in the model design.
We proposed Dikaios, a privacy auditing tool for fairness algorithms for model
builders which leveraged a new effective attribute inference attack that
account for the class imbalance in sensitive attributes through an adaptive
prediction threshold. We evaluated Dikaios to perform a privacy audit of two
in-processing fairness algorithms over five datasets. We show that our
attribute inference attacks with adaptive prediction threshold significantly
outperform prior attacks. We highlighted the limitations of in-processing
fairness algorithms to ensure indistinguishable predictions across different
values of sensitive attributes. Indeed, the attribute privacy risk of these
in-processing fairness schemes is highly variable according to the proportion
of the sensitive attributes in the dataset. This unpredictable effect of
fairness mechanisms on the attribute privacy risk is an important limitation on
their utilization which has to be accounted by the model builder.
- Abstract(参考訳): 機械学習(ML)モデルは、高度なアプリケーションにデプロイされている。
データセットで観察される機密属性のクラス不均衡のため、MLモデルは人種や性別などの機密属性によって識別される少数サブグループに対して不公平である。
In-processing Fairnessアルゴリズムは、モデル予測が機密属性に依存しないことを保証する。
さらに、MLモデルは属性推論攻撃に対して脆弱であり、敵は識別可能なモデル予測を利用して機密属性の値を特定することができる。
信頼に値するmlの重要な柱であるプライバシと公平性にもかかわらず、属性の漏洩に関してフェアネスアルゴリズムによってもたらされるプライバシリスクは研究されていない。
モデルビルダーがモデル設計のプライバシと公平性を考慮し、ブラックボックスフェアネスアルゴリズムを監査するための効果的な手段として属性推論攻撃を同定する。
モデルビルダーに対する公平性アルゴリズムのためのプライバシ監査ツールであるDikaiosを提案し, 適応予測しきい値を用いて, 機密属性のクラス不均衡を考慮に入れた, 新たな効果的な属性推論攻撃を利用した。
我々はDikaiosを評価し、5つのデータセット上で2つの処理内公平性アルゴリズムのプライバシー監査を行った。
適応予測しきい値を持つ属性推論攻撃は,前回の攻撃よりも有意に優れていた。
我々は、機密属性の異なる値間で区別不能な予測を保証するために、処理中の公平性アルゴリズムの限界を強調した。
実際、これらの内部処理フェアネススキームの属性プライバシリスクは、データセットのセンシティブな属性の割合に応じて非常に変動する。
属性のプライバシリスクに対する公平性メカニズムの予測不可能な影響は、モデルビルダーが考慮しなければならないその利用に対する重要な制限である。
関連論文リスト
- Fairness Without Harm: An Influence-Guided Active Sampling Approach [32.173195437797766]
我々は、モデルの精度に害を与えることなく、グループフェアネスの格差を軽減するモデルを訓練することを目指している。
公正なアクティブな学習アプローチのような現在のデータ取得方法は、通常、アノテートセンシティブな属性を必要とする。
トレーニンググループアノテーションに依存しない抽出可能なアクティブデータサンプリングアルゴリズムを提案する。
論文 参考訳(メタデータ) (2024-02-20T07:57:38Z) - Fairness Under Demographic Scarce Regime [7.523105080786704]
フェアネスと精度のトレードオフを改善する属性分類器を構築するためのフレームワークを提案する。
不確実な感度特性を持つ試料に公正性制約を課すことは、公正性-正確性トレードオフに悪影響を及ぼす可能性があることを示す。
我々のフレームワークは、ほとんどのベンチマークで真に敏感な属性に対する公平性制約で訓練されたモデルより優れている。
論文 参考訳(メタデータ) (2023-07-24T19:07:34Z) - Learning for Counterfactual Fairness from Observational Data [62.43249746968616]
公正な機械学習は、人種、性別、年齢などの特定の保護された(感受性のある)属性によって記述されるある種のサブグループに対して、学習モデルのバイアスを取り除くことを目的としている。
カウンターファクトフェアネスを達成するための既存の手法の前提条件は、データに対する因果モデルの事前の人間の知識である。
本研究では,新しいフレームワークCLAIREを提案することにより,因果関係を付与せずに観測データから対実的に公正な予測を行う問題に対処する。
論文 参考訳(メタデータ) (2023-07-17T04:08:29Z) - Towards Assumption-free Bias Mitigation [47.5131072745805]
本稿では,バイアス緩和のための特徴相互作用をモデル化することにより,関連する属性を自動的に検出する仮定フリーフレームワークを提案する。
4つの実世界のデータセットに対する実験結果から,提案手法が不公平な予測行動を著しく軽減できることが示された。
論文 参考訳(メタデータ) (2023-07-09T05:55:25Z) - Group Fairness with Uncertainty in Sensitive Attributes [34.608332397776245]
公正な予測モデルは、ハイテイクなアプリケーションにおける少数派グループに対する偏見のある決定を緩和するために不可欠である。
本稿では, 感度特性の不確実性にも拘わらず, フェアネスの目標レベルを達成するブートストラップに基づくアルゴリズムを提案する。
本アルゴリズムは離散的属性と連続的属性の両方に適用可能であり,実世界の分類や回帰作業に有効である。
論文 参考訳(メタデータ) (2023-02-16T04:33:00Z) - Hyper-parameter Tuning for Fair Classification without Sensitive Attribute Access [12.447577504758485]
トレーニングデータや検証データの機密属性にアクセスすることなく、公平な分類器を訓練するフレームワークを提案する。
我々は,これらのプロキシラベルが平均精度制約下での公平性を最大化するために利用できることを理論的,実証的に示す。
論文 参考訳(メタデータ) (2023-02-02T19:45:50Z) - Fairness via Adversarial Attribute Neighbourhood Robust Learning [49.93775302674591]
本稿では,分類ヘッドを損なうために,UnderlineRobust underlineAdversarial underlineAttribute underlineNeighbourhood (RAAN)損失を原則として提案する。
論文 参考訳(メタデータ) (2022-10-12T23:39:28Z) - Semi-FairVAE: Semi-supervised Fair Representation Learning with
Adversarial Variational Autoencoder [92.67156911466397]
逆変分オートエンコーダに基づく半教師付き公正表現学習手法を提案する。
我々は、バイアス認識モデルを用いて、機密属性の固有バイアス情報をキャプチャする。
また、偏見のないモデルを用いて、対立学習を用いて偏見情報を取り除き、偏見のない公正表現を学習する。
論文 参考訳(メタデータ) (2022-04-01T15:57:47Z) - Measuring Fairness Under Unawareness of Sensitive Attributes: A
Quantification-Based Approach [131.20444904674494]
センシティブな属性の無意識下でのグループフェアネスを測定する問題に取り組む。
定量化手法は, フェアネスと無意識の問題に対処するのに特に適していることを示す。
論文 参考訳(メタデータ) (2021-09-17T13:45:46Z) - Black-box Model Inversion Attribute Inference Attacks on Classification
Models [32.757792981935815]
我々は、トレーニングデータのインスタンスに関する非感受性属性を敵が知るような、ある種類のモデル反転攻撃に焦点を当てる。
信頼モデルに基づく攻撃と信頼スコアに基づく攻撃の2つの新しいモデル反転属性推論攻撃を考案した。
2つの実際のデータセットでトレーニングされた決定木とディープニューラルネットワークの2種類の機械学習モデルに対する攻撃を評価した。
論文 参考訳(メタデータ) (2020-12-07T01:14:19Z) - Differentially Private and Fair Deep Learning: A Lagrangian Dual
Approach [54.32266555843765]
本稿では,個人の機密情報のプライバシを保護するとともに,非差別的予測器の学習を可能にするモデルについて検討する。
この方法は、微分プライバシーの概念と、公正性制約を満たすニューラルネットワークの設計にラグランジアン双対性(Lagrangian duality)を用いることに依存している。
論文 参考訳(メタデータ) (2020-09-26T10:50:33Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。