論文の概要: PFGuard: A Generative Framework with Privacy and Fairness Safeguards
- arxiv url: http://arxiv.org/abs/2410.02246v1
- Date: Thu, 3 Oct 2024 06:37:16 GMT
- ステータス: 処理完了
- システム内更新日: 2024-11-04 07:46:05.660934
- Title: PFGuard: A Generative Framework with Privacy and Fairness Safeguards
- Title(参考訳): PFGuard:プライバシと公正保護を備えた生成フレームワーク
- Authors: Soyeon Kim, Yuji Roh, Geon Heo, Steven Euijong Whang,
- Abstract要約: PFGuardは、プライバシと公平性保護を備えた生成フレームワークである。
公正なトレーニング段階とプライベートなトレーニング段階の間のプライバシーと公正の対立のバランスを取る。
実験の結果,PFGuardは高次元データから合成データを生成することに成功した。
- 参考スコア(独自算出の注目度): 14.504462873398461
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Generative models must ensure both privacy and fairness for Trustworthy AI. While these goals have been pursued separately, recent studies propose to combine existing privacy and fairness techniques to achieve both goals. However, naively combining these techniques can be insufficient due to privacy-fairness conflicts, where a sample in a minority group may be amplified for fairness, only to be suppressed for privacy. We demonstrate how these conflicts lead to adverse effects, such as privacy violations and unexpected fairness-utility tradeoffs. To mitigate these risks, we propose PFGuard, a generative framework with privacy and fairness safeguards, which simultaneously addresses privacy, fairness, and utility. By using an ensemble of multiple teacher models, PFGuard balances privacy-fairness conflicts between fair and private training stages and achieves high utility based on ensemble learning. Extensive experiments show that PFGuard successfully generates synthetic data on high-dimensional data while providing both fairness convergence and strict DP guarantees - the first of its kind to our knowledge.
- Abstract(参考訳): 生成モデルは、信頼できるAIのプライバシと公平性を保証する必要があります。
これらの目的は別々に追求されているが、最近の研究では、両方の目標を達成するために、既存のプライバシとフェアネスのテクニックを組み合わせることを提案する。
しかし、これらの技術を組み合わせることは、プライバシとフェアネスの対立のために不十分であり、少数派のサンプルは公正さのために増幅されるが、プライバシのためにのみ抑制される。
こうした対立が、プライバシー侵害や予期せぬ公正効用トレードオフといった悪影響をいかに引き起こすかを実証する。
これらのリスクを軽減するために、プライバシと公正性保護を備えた生成フレームワークであるPFGuardを提案する。
複数の教師モデルのアンサンブルを使用することで、PFGuardは公正なトレーニングステージとプライベートトレーニングステージのプライバシとフェアネスの衝突をバランスさせ、アンサンブル学習に基づく高いユーティリティを実現する。
大規模な実験により、PFGuardは、公正収束と厳密なDP保証の両方を提供しながら、高次元データの合成データを生成することに成功した。
関連論文リスト
- Convergent Differential Privacy Analysis for General Federated Learning: the $f$-DP Perspective [57.35402286842029]
フェデレートラーニング(Federated Learning, FL)は、ローカルプライバシを重視した効率的な協調トレーニングパラダイムである。
ディファレンシャルプライバシ(DP)は、私的保護の信頼性を捕捉し、保証するための古典的なアプローチである。
論文 参考訳(メタデータ) (2024-08-28T08:22:21Z) - Linkage on Security, Privacy and Fairness in Federated Learning: New Balances and New Perspectives [48.48294460952039]
この調査は、フェデレートラーニングにおけるプライバシー、セキュリティ、公平性の問題に関する包括的な説明を提供する。
プライバシーと公平性と、セキュリティと共有の間にはトレードオフがある、と私たちは主張する。
論文 参考訳(メタデータ) (2024-06-16T10:31:45Z) - Fairness and Privacy Guarantees in Federated Contextual Bandits [8.071147275221973]
公平さを後悔してアルゴリズムの有効性をモデル化する。
Fed-FairX-LinUCB と Priv-FairX-LinUCB はともに, ほぼ最適の公平さを後悔する。
論文 参考訳(メタデータ) (2024-02-05T21:38:23Z) - Toward the Tradeoffs between Privacy, Fairness and Utility in Federated
Learning [10.473137837891162]
Federated Learning(FL)は、新しいプライバシー保護分散機械学習パラダイムである。
本稿では,クライアントモデルのプライバシを保護するために,プライバシ保護フェアネスFL法を提案する。
プライバシーと公正性と実用性の関係を結論付け、これらの間にはトレードオフがある。
論文 参考訳(メタデータ) (2023-11-30T02:19:35Z) - Privacy and Fairness in Federated Learning: on the Perspective of
Trade-off [58.204074436129716]
フェデレートラーニング(FL)は近年ホットな話題となっている。
2つの重要な倫理的概念として、プライバシと公平性の相互作用は比較的研究されていない。
論文 参考訳(メタデータ) (2023-06-25T04:38:19Z) - No free lunch theorem for security and utility in federated learning [20.481170500480395]
複数のパーティがそれぞれのデータからモデルを共同で学習するフェデレートされた学習シナリオでは、適切なアルゴリズムを選択するための2つの相反する目標が存在する。
本稿では、プライバシ損失とユーティリティ損失のトレードオフを統一情報理論の観点から定式化する一般的なフレームワークについて説明する。
論文 参考訳(メタデータ) (2022-03-11T09:48:29Z) - Defending against Reconstruction Attacks with R\'enyi Differential
Privacy [72.1188520352079]
レコンストラクション攻撃により、敵は訓練されたモデルのみにアクセスすることで、トレーニングセットのデータサンプルを再生することができる。
差別化プライバシはこのような攻撃に対する既知の解決策であるが、比較的大きなプライバシ予算で使用されることが多い。
また、同機構により、従来の文献よりも優れた復元攻撃に対するプライバシー保証を導出できることを示す。
論文 参考訳(メタデータ) (2022-02-15T18:09:30Z) - Privacy Amplification via Shuffling for Linear Contextual Bandits [51.94904361874446]
ディファレンシャルプライバシ(DP)を用いた文脈線形バンディット問題について検討する。
プライバシのシャッフルモデルを利用して,JDP と LDP のプライバシ/ユーティリティトレードオフを実現することができることを示す。
以上の結果から,ローカルプライバシを保ちながらシャッフルモデルを活用することで,JDPとDPのトレードオフを得ることが可能であることが示唆された。
論文 参考訳(メタデータ) (2021-12-11T15:23:28Z) - A Privacy-Preserving and Trustable Multi-agent Learning Framework [34.28936739262812]
本稿では,プライバシ保護と信頼性のある分散学習(PT-DL)を提案する。
PT-DLは、エージェントのデータに対する強力なプライバシ保護を保証するために、差分プライバシに依存する、完全に分散化されたフレームワークである。
本論文は,PT-DLが50%の衝突攻撃に対して,悪意のある信頼モデルで高い確率で回復可能であることを示す。
論文 参考訳(メタデータ) (2021-06-02T15:46:27Z) - Federated $f$-Differential Privacy [19.499120576896228]
フェデレートラーニング(Federated Learning, FL)とは、クライアントが繰り返し情報を共有することによってモデルを学ぶ訓練パラダイムである。
フェデレーション設定に特化した新しい概念である、フェデレーション$f$-differenceプライバシを紹介します。
そこで我々は,最先端flアルゴリズムの大規模ファミリーに対応する汎用的federated learningフレームワークprifedsyncを提案する。
論文 参考訳(メタデータ) (2021-02-22T16:28:21Z) - Private Reinforcement Learning with PAC and Regret Guarantees [69.4202374491817]
エピソード強化学習(RL)のためのプライバシー保護探索ポリシーを設計する。
まず、共同微分プライバシー(JDP)の概念を用いた有意義なプライバシー定式化を提供する。
そこで我々は,強いPACと後悔境界を同時に達成し,JDP保証を享受する,プライベートな楽観主義に基づく学習アルゴリズムを開発した。
論文 参考訳(メタデータ) (2020-09-18T20:18:35Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。