論文の概要: On the Alignment of Group Fairness with Attribute Privacy
- arxiv url: http://arxiv.org/abs/2211.10209v3
- Date: Tue, 5 Mar 2024 07:51:14 GMT
- ステータス: 処理完了
- システム内更新日: 2024-03-07 04:21:06.676934
- Title: On the Alignment of Group Fairness with Attribute Privacy
- Title(参考訳): 属性プライバシによるグループフェアネスのアライメントについて
- Authors: Jan Aalmoes and Vasisht Duddu and Antoine Boutet
- Abstract要約: グループフェアネスとプライバシは、信頼できる機械学習モデルを設計する上での基本的な側面である。
ブラックボックスの設定において、グループフェアネスと属性プライバシという特定のプライバシー概念との整合性を初めて示す。
- 参考スコア(独自算出の注目度): 1.6574413179773757
- License: http://creativecommons.org/publicdomain/zero/1.0/
- Abstract: Group fairness and privacy are fundamental aspects in designing trustworthy
machine learning models. Previous research has highlighted conflicts between
group fairness and different privacy notions. We are the first to demonstrate
the alignment of group fairness with the specific privacy notion of attribute
privacy in a blackbox setting. Attribute privacy, quantified by the resistance
to attribute inference attacks (AIAs), requires indistinguishability in the
target model's output predictions. Group fairness guarantees this thereby
mitigating AIAs and achieving attribute privacy. To demonstrate this, we first
introduce AdaptAIA, an enhancement of existing AIAs, tailored for real-world
datasets with class imbalances in sensitive attributes. Through theoretical and
extensive empirical analyses, we demonstrate the efficacy of two standard group
fairness algorithms (i.e., adversarial debiasing and exponentiated gradient
descent) against AdaptAIA. Additionally, since using group fairness results in
attribute privacy, it acts as a defense against AIAs, which is currently
lacking. Overall, we show that group fairness aligns with attribute privacy at
no additional cost other than the already existing trade-off with model
utility.
- Abstract(参考訳): グループフェアネスとプライバシは、信頼できる機械学習モデルの設計における基本的な側面である。
これまでの研究は、グループフェアネスと異なるプライバシー概念の対立を強調してきた。
ブラックボックスの設定において、グループフェアネスと属性プライバシという特定のプライバシー概念との整合性を初めて示す。
属性推論攻撃(AIA)に対する抵抗によって定量化された属性プライバシは、ターゲットモデルの出力予測において識別不可能性を必要とする。
グループフェアネスは、AIAの緩和と属性プライバシの達成を保証する。
これを示すために,私たちはまず,クラスの不均衡が敏感な属性を持つ実世界のデータセット用にカスタマイズされた,既存のaiaの拡張であるadaptaiaを紹介します。
理論的および広範な実証分析を通じて,AdaptAIAに対する2つの標準群フェアネスアルゴリズム(対逆脱バイアス,指数勾配降下)の有効性を実証した。
さらに、グループフェアネスの使用は属性プライバシをもたらすため、現在不足しているAIAに対する防御として機能する。
全体として、グループフェアネスは属性プライバシと一致しており、既存のモデルユーティリティとのトレードオフ以外の追加コストは発生しない。
関連論文リスト
- Group fairness without demographics using social networks [29.073125057536014]
グループフェアネス(英: Group Fairness)は、人種、性別、障害などのセンシティブな属性に基づいて、個人の好ましくない扱いを防止するための一般的なアプローチである。
そこで本稿では, センシティブな属性に依存しないフェアネスの「グループフリー」尺度を提案する。
論文 参考訳(メタデータ) (2023-05-19T00:45:55Z) - Analysing Fairness of Privacy-Utility Mobility Models [11.387235721659378]
この研究は、人間の移動性のために明示的に設計された公正度メトリクスのセットを定義する。
GANと表現学習に依存した2つの最先端プライバシ保護モデルの公正性を検証し,データ共有におけるユーザの再識別率の低減を図る。
以上の結果から,両モデルがグループフェアネスを保証しているが,個々のフェアネス基準に反し,非常に類似したトラジェクトリを持つユーザに対して,異なるプライバシ向上が認められたことが示唆された。
論文 参考訳(メタデータ) (2023-04-10T11:09:18Z) - DualFair: Fair Representation Learning at Both Group and Individual
Levels via Contrastive Self-supervision [73.80009454050858]
この研究は、DualFairと呼ばれる自己教師型モデルを提示し、学習された表現から性別や人種などのセンシティブな属性をデバイアスすることができる。
我々のモデルは、グループフェアネスと対実フェアネスという2つのフェアネス基準を共同で最適化する。
論文 参考訳(メタデータ) (2023-03-15T07:13:54Z) - Can Querying for Bias Leak Protected Attributes? Achieving Privacy With
Smooth Sensitivity [14.564919048514897]
既存の規制は、モデル開発者が保護された属性にアクセスすることを禁止している。
公正度測定値を求めるだけで、モデルの開発者に対する個人の保護された属性が漏洩する可能性があることを示す。
本稿では,雑音をバイアスクエリのスムーズな感度に調整することで,差分プライバシーを実現する新しい手法であるAttribute-Concealを提案する。
論文 参考訳(メタデータ) (2022-11-03T20:44:48Z) - Fairness via Adversarial Attribute Neighbourhood Robust Learning [49.93775302674591]
本稿では,分類ヘッドを損なうために,UnderlineRobust underlineAdversarial underlineAttribute underlineNeighbourhood (RAAN)損失を原則として提案する。
論文 参考訳(メタデータ) (2022-10-12T23:39:28Z) - When Fairness Meets Privacy: Fair Classification with Semi-Private
Sensitive Attributes [18.221858247218726]
半私的な環境での公平な分類の新規かつ実践的な問題について検討する。
センシティブな属性のほとんどはプライベートであり、クリーンな属性はごくわずかである。
半原始的環境下での公正な予測を実現するための新しいフレームワークであるFairSPを提案する。
論文 参考訳(メタデータ) (2022-07-18T01:10:25Z) - SF-PATE: Scalable, Fair, and Private Aggregation of Teacher Ensembles [50.90773979394264]
本稿では、個人の機密情報のプライバシーを保護しつつ、差別的でない予測者の学習を可能にするモデルについて検討する。
提案モデルの主な特徴は、プライバシ保護とフェアモデルを作成するために、オフ・ザ・セルフと非プライベートフェアモデルの採用を可能にすることである。
論文 参考訳(メタデータ) (2022-04-11T14:42:54Z) - Measuring Fairness of Text Classifiers via Prediction Sensitivity [63.56554964580627]
加速度予測感度は、入力特徴の摂動に対するモデルの予測感度に基づいて、機械学習モデルの公正度を測定する。
この計量は、群フェアネス(統計パリティ)と個人フェアネスという特定の概念と理論的に関連付けられることを示す。
論文 参考訳(メタデータ) (2022-03-16T15:00:33Z) - Dikaios: Privacy Auditing of Algorithmic Fairness via Attribute
Inference Attacks [0.5801044612920815]
モデルビルダーのための公正性アルゴリズムのためのプライバシ監査ツールであるDikaiosを提案する。
適応予測しきい値を持つ属性推論攻撃は,前回の攻撃よりも有意に優れていた。
論文 参考訳(メタデータ) (2022-02-04T17:19:59Z) - Measuring Fairness Under Unawareness of Sensitive Attributes: A
Quantification-Based Approach [131.20444904674494]
センシティブな属性の無意識下でのグループフェアネスを測定する問題に取り組む。
定量化手法は, フェアネスと無意識の問題に対処するのに特に適していることを示す。
論文 参考訳(メタデータ) (2021-09-17T13:45:46Z) - Causal Feature Selection for Algorithmic Fairness [61.767399505764736]
データ管理の統合コンポーネントにおける公平性について検討する。
本稿では,データセットの公平性を保証する特徴のサブコレクションを同定する手法を提案する。
論文 参考訳(メタデータ) (2020-06-10T20:20:10Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。