論文の概要: Can Querying for Bias Leak Protected Attributes? Achieving Privacy With
Smooth Sensitivity
- arxiv url: http://arxiv.org/abs/2211.02139v2
- Date: Mon, 5 Jun 2023 20:55:12 GMT
- ステータス: 処理完了
- システム内更新日: 2023-06-07 21:34:58.800743
- Title: Can Querying for Bias Leak Protected Attributes? Achieving Privacy With
Smooth Sensitivity
- Title(参考訳): バイアスリーク保護属性のクエリは可能か?
Smooth Sensitivityでプライバシーを達成
- Authors: Faisal Hamman, Jiahao Chen, Sanghamitra Dutta
- Abstract要約: 既存の規制は、モデル開発者が保護された属性にアクセスすることを禁止している。
公正度測定値を求めるだけで、モデルの開発者に対する個人の保護された属性が漏洩する可能性があることを示す。
本稿では,雑音をバイアスクエリのスムーズな感度に調整することで,差分プライバシーを実現する新しい手法であるAttribute-Concealを提案する。
- 参考スコア(独自算出の注目度): 14.564919048514897
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Existing regulations prohibit model developers from accessing protected
attributes (gender, race, etc.), often resulting in fairness assessments on
populations without knowing their protected groups. In such scenarios,
institutions often adopt a separation between the model developers (who train
models with no access to the protected attributes) and a compliance team (who
may have access to the entire dataset for auditing purposes). However, the
model developers might be allowed to test their models for bias by querying the
compliance team for group fairness metrics. In this paper, we first demonstrate
that simply querying for fairness metrics, such as statistical parity and
equalized odds can leak the protected attributes of individuals to the model
developers. We demonstrate that there always exist strategies by which the
model developers can identify the protected attribute of a targeted individual
in the test dataset from just a single query. In particular, we show that one
can reconstruct the protected attributes of all the individuals from O(Nk \log(
n /Nk)) queries when Nk<<n using techniques from compressed sensing (n: size of
the test dataset, Nk: size of smallest group). Our results pose an interesting
debate in algorithmic fairness: should querying for fairness metrics be viewed
as a neutral-valued solution to ensure compliance with regulations? Or, does it
constitute a violation of regulations and privacy if the number of queries
answered is enough for the model developers to identify the protected
attributes of specific individuals? To address this supposed violation, we also
propose Attribute-Conceal, a novel technique that achieves differential privacy
by calibrating noise to the smooth sensitivity of our bias query, outperforming
naive techniques such as the Laplace mechanism. We also include experimental
results on the Adult dataset and synthetic data.
- Abstract(参考訳): 既存の規制は、モデル開発者が保護された属性(性別、人種など)にアクセスすることを禁止しており、しばしば保護されたグループを知らずに、人口に対する公平な評価をもたらす。
このようなシナリオでは、モデル開発者(保護された属性にアクセスできないモデルをトレーニングする)とコンプライアンスチーム(監査目的でデータセット全体にアクセスする可能性がある)を分離することが多い。
しかし、モデル開発者は、コンプライアンスチームにグループフェアネスメトリクスを問い合わせることで、バイアスのためにモデルをテストすることが許されるかもしれない。
本稿では,まず,統計的パリティや等化オッズといった公平度メトリクスのクエリが,個々の保護属性をモデル開発者に漏らす可能性があることを実証する。
テストデータセット内の対象個人の保護された属性を1つのクエリから識別できる戦略は常に存在することを実証する。
特に,圧縮センシング技術(n:テストデータセットのサイズ,Nk:最小グループのサイズ)を用いて,O(Nk \log(n /Nk))クエリから全個人の保護属性を再構成できることが示されている。
我々の結果は、アルゴリズムの公正性に関して興味深い議論を巻き起こしている: 公正度メトリクスのクエリは、規制の遵守を保証する中立的なソリューションと見なすべきだろうか?
あるいは、モデル開発者が特定の個人の保護された属性を識別するのに十分なクエリ数であれば、規制やプライバシの侵害になるのでしょうか?
また,この違反に対処するため,ノイズをバイアスクエリのスムーズな感度に調整し,Laplace機構のようなナイーブな手法よりも優れたノイズを識別する新しい手法であるAttribute-Concealを提案する。
また、成人データセットと合成データに関する実験結果も含む。
関連論文リスト
- Fairness Without Harm: An Influence-Guided Active Sampling Approach [32.173195437797766]
我々は、モデルの精度に害を与えることなく、グループフェアネスの格差を軽減するモデルを訓練することを目指している。
公正なアクティブな学習アプローチのような現在のデータ取得方法は、通常、アノテートセンシティブな属性を必要とする。
トレーニンググループアノテーションに依存しない抽出可能なアクティブデータサンプリングアルゴリズムを提案する。
論文 参考訳(メタデータ) (2024-02-20T07:57:38Z) - Estimating and Implementing Conventional Fairness Metrics With
Probabilistic Protected Features [7.457585597068654]
限られた属性ラベルを持つ設定において,違反を計測・低減する手法を開発した。
提案手法は, 従来の手法よりも5.5倍の精度で, 真の相違を抑えることができることを示す。
論文 参考訳(メタデータ) (2023-10-02T22:30:25Z) - Client-specific Property Inference against Secure Aggregation in
Federated Learning [52.8564467292226]
フェデレートラーニングは、さまざまな参加者の間で共通のモデルを協調的に訓練するための、広く使われているパラダイムとなっている。
多くの攻撃は、メンバーシップ、資産、または参加者データの完全な再構築のような機密情報を推測することは依然として可能であることを示した。
単純な線形モデルでは、集約されたモデル更新からクライアント固有のプロパティを効果的にキャプチャできることが示される。
論文 参考訳(メタデータ) (2023-03-07T14:11:01Z) - Membership Inference Attacks against Synthetic Data through Overfitting
Detection [84.02632160692995]
我々は、攻撃者が基礎となるデータ分布についてある程度の知識を持っていると仮定する現実的なMIA設定について論じる。
生成モデルの局所的なオーバーフィッティングをターゲットとして,メンバシップを推論することを目的とした密度ベースMIAモデルであるDOMIASを提案する。
論文 参考訳(メタデータ) (2023-02-24T11:27:39Z) - Fair mapping [0.0]
本稿では,保護されたグループの分布を選択対象に変換した新しい前処理手法を提案する。
我々はWasserstein GANおよびAttGANフレームワークの最近の成果を活用し、最適なデータポイントの転送を実現する。
提案手法は、データの解釈可能性を維持し、センシティブなグループを正確に定義することなく使用することができる。
論文 参考訳(メタデータ) (2022-09-01T17:31:27Z) - When Fairness Meets Privacy: Fair Classification with Semi-Private
Sensitive Attributes [18.221858247218726]
半私的な環境での公平な分類の新規かつ実践的な問題について検討する。
センシティブな属性のほとんどはプライベートであり、クリーンな属性はごくわずかである。
半原始的環境下での公正な予測を実現するための新しいフレームワークであるFairSPを提案する。
論文 参考訳(メタデータ) (2022-07-18T01:10:25Z) - SF-PATE: Scalable, Fair, and Private Aggregation of Teacher Ensembles [50.90773979394264]
本稿では、個人の機密情報のプライバシーを保護しつつ、差別的でない予測者の学習を可能にするモデルについて検討する。
提案モデルの主な特徴は、プライバシ保護とフェアモデルを作成するために、オフ・ザ・セルフと非プライベートフェアモデルの採用を可能にすることである。
論文 参考訳(メタデータ) (2022-04-11T14:42:54Z) - Measuring Fairness of Text Classifiers via Prediction Sensitivity [63.56554964580627]
加速度予測感度は、入力特徴の摂動に対するモデルの予測感度に基づいて、機械学習モデルの公正度を測定する。
この計量は、群フェアネス(統計パリティ)と個人フェアネスという特定の概念と理論的に関連付けられることを示す。
論文 参考訳(メタデータ) (2022-03-16T15:00:33Z) - Dikaios: Privacy Auditing of Algorithmic Fairness via Attribute
Inference Attacks [0.5801044612920815]
モデルビルダーのための公正性アルゴリズムのためのプライバシ監査ツールであるDikaiosを提案する。
適応予測しきい値を持つ属性推論攻撃は,前回の攻撃よりも有意に優れていた。
論文 参考訳(メタデータ) (2022-02-04T17:19:59Z) - Measuring Fairness Under Unawareness of Sensitive Attributes: A
Quantification-Based Approach [131.20444904674494]
センシティブな属性の無意識下でのグループフェアネスを測定する問題に取り組む。
定量化手法は, フェアネスと無意識の問題に対処するのに特に適していることを示す。
論文 参考訳(メタデータ) (2021-09-17T13:45:46Z) - Differentially Private and Fair Deep Learning: A Lagrangian Dual
Approach [54.32266555843765]
本稿では,個人の機密情報のプライバシを保護するとともに,非差別的予測器の学習を可能にするモデルについて検討する。
この方法は、微分プライバシーの概念と、公正性制約を満たすニューラルネットワークの設計にラグランジアン双対性(Lagrangian duality)を用いることに依存している。
論文 参考訳(メタデータ) (2020-09-26T10:50:33Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。