論文の概要: PFGuard: A Generative Framework with Privacy and Fairness Safeguards
- arxiv url: http://arxiv.org/abs/2410.02246v2
- Date: Fri, 28 Feb 2025 09:03:21 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-03-03 13:38:59.013418
- Title: PFGuard: A Generative Framework with Privacy and Fairness Safeguards
- Title(参考訳): PFGuard:プライバシと公正保護を備えた生成フレームワーク
- Authors: Soyeon Kim, Yuji Roh, Geon Heo, Steven Euijong Whang,
- Abstract要約: プライバシと公平性を保護した生成フレームワークであるPFGuardを提案する。
PFGuardは、公正なトレーニングステージとプライベートトレーニングステージの間のプライバシーと公正の衝突のバランスをとる。
実験の結果,PFGuardは高次元データから合成データを生成することに成功した。
- 参考スコア(独自算出の注目度): 14.504462873398461
- License:
- Abstract: Generative models must ensure both privacy and fairness for Trustworthy AI. While these goals have been pursued separately, recent studies propose to combine existing privacy and fairness techniques to achieve both goals. However, naively combining these techniques can be insufficient due to privacy-fairness conflicts, where a sample in a minority group may be represented in ways that support fairness, only to be suppressed for privacy. We demonstrate how these conflicts lead to adverse effects, such as privacy violations and unexpected fairness-utility tradeoffs. To mitigate these risks, we propose PFGuard, a generative framework with privacy and fairness safeguards, which simultaneously addresses privacy, fairness, and utility. By using an ensemble of multiple teacher models, PFGuard balances privacy-fairness conflicts between fair and private training stages and achieves high utility based on ensemble learning. Extensive experiments show that PFGuard successfully generates synthetic data on high-dimensional data while providing both DP guarantees and convergence in fair generative modeling.
- Abstract(参考訳): 生成モデルは、信頼できるAIのプライバシと公平性を保証する必要があります。
これらの目的は別々に追求されているが、最近の研究では、両方の目標を達成するために、既存のプライバシとフェアネスのテクニックを組み合わせることを提案する。
しかし、これらの技術を組み合わせることは、プライバシとフェアネスの対立が原因で不十分であり、少数派のサンプルは公平性を支持する方法で表現されるが、プライバシのためにのみ抑制される。
こうした対立が、プライバシー侵害や予期せぬ公正効用トレードオフといった悪影響をいかに引き起こすかを実証する。
これらのリスクを軽減するために、プライバシと公正性保護を備えた生成フレームワークであるPFGuardを提案する。
複数の教師モデルのアンサンブルを使用することで、PFGuardは公正なトレーニングステージとプライベートトレーニングステージのプライバシとフェアネスの衝突をバランスさせ、アンサンブル学習に基づく高いユーティリティを実現する。
大規模実験によりPFGuardは高次元データ上での合成データの生成に成功し、公正な生成モデルにおいてDP保証と収束の両方を提供することがわかった。
関連論文リスト
- TAPFed: Threshold Secure Aggregation for Privacy-Preserving Federated Learning [16.898842295300067]
フェデレートラーニング(Federated Learning)は、複数のパーティが個人データを公開せずに機械学習モデルを協調的にトレーニングできるようにすることで、プライバシを高めるコンピューティングパラダイムである。
従来のフェデレートされた学習プラットフォームは、勾配の交換によるプライバシーリークによってプライバシーを保証できない。
本稿では,悪意あるアクターを持つ複数の分散アグリゲータのコンテキストにおいて,プライバシ保護のためのフェデレーション学習を実現するためのTAPFedを提案する。
論文 参考訳(メタデータ) (2025-01-09T08:24:10Z) - Activity Recognition on Avatar-Anonymized Datasets with Masked Differential Privacy [64.32494202656801]
プライバシを保存するコンピュータビジョンは、機械学習と人工知能において重要な問題である。
本稿では,ビデオデータセット中の感性のある被験者を文脈内の合成アバターに置き換える匿名化パイプラインを提案する。
また、匿名化されていないがプライバシーに敏感な背景情報を保護するため、MaskDPを提案する。
論文 参考訳(メタデータ) (2024-10-22T15:22:53Z) - Bayes-Nash Generative Privacy Against Membership Inference Attacks [24.330984323956173]
メンバーシップ推論攻撃(MIA)は、個人のデータがデータセットにあるかどうかを判断することで、重大なプライバシーリスクを露呈する。
本研究では,MIAのプライバシ保護をディフェンダーとアタッカー間のベイズゲームとしてモデル化するゲーム理論フレームワークを提案する。
そこで我々は,ベイズ・ナッシュ生成プライバシ(BNGP)を得たディフェンダーのデータ共有ポリシーを呼んだ。
論文 参考訳(メタデータ) (2024-10-09T20:29:04Z) - Linkage on Security, Privacy and Fairness in Federated Learning: New Balances and New Perspectives [48.48294460952039]
この調査は、フェデレートラーニングにおけるプライバシー、セキュリティ、公平性の問題に関する包括的な説明を提供する。
プライバシーと公平性と、セキュリティと共有の間にはトレードオフがある、と私たちは主張する。
論文 参考訳(メタデータ) (2024-06-16T10:31:45Z) - Fairness and Privacy Guarantees in Federated Contextual Bandits [8.071147275221973]
公平さを後悔してアルゴリズムの有効性をモデル化する。
Fed-FairX-LinUCB と Priv-FairX-LinUCB はともに, ほぼ最適の公平さを後悔する。
論文 参考訳(メタデータ) (2024-02-05T21:38:23Z) - Toward the Tradeoffs between Privacy, Fairness and Utility in Federated
Learning [10.473137837891162]
Federated Learning(FL)は、新しいプライバシー保護分散機械学習パラダイムである。
本稿では,クライアントモデルのプライバシを保護するために,プライバシ保護フェアネスFL法を提案する。
プライバシーと公正性と実用性の関係を結論付け、これらの間にはトレードオフがある。
論文 参考訳(メタデータ) (2023-11-30T02:19:35Z) - Privacy and Fairness in Federated Learning: on the Perspective of
Trade-off [58.204074436129716]
フェデレートラーニング(FL)は近年ホットな話題となっている。
2つの重要な倫理的概念として、プライバシと公平性の相互作用は比較的研究されていない。
論文 参考訳(メタデータ) (2023-06-25T04:38:19Z) - Defending against Reconstruction Attacks with R\'enyi Differential
Privacy [72.1188520352079]
レコンストラクション攻撃により、敵は訓練されたモデルのみにアクセスすることで、トレーニングセットのデータサンプルを再生することができる。
差別化プライバシはこのような攻撃に対する既知の解決策であるが、比較的大きなプライバシ予算で使用されることが多い。
また、同機構により、従来の文献よりも優れた復元攻撃に対するプライバシー保証を導出できることを示す。
論文 参考訳(メタデータ) (2022-02-15T18:09:30Z) - Privacy Amplification via Shuffling for Linear Contextual Bandits [51.94904361874446]
ディファレンシャルプライバシ(DP)を用いた文脈線形バンディット問題について検討する。
プライバシのシャッフルモデルを利用して,JDP と LDP のプライバシ/ユーティリティトレードオフを実現することができることを示す。
以上の結果から,ローカルプライバシを保ちながらシャッフルモデルを活用することで,JDPとDPのトレードオフを得ることが可能であることが示唆された。
論文 参考訳(メタデータ) (2021-12-11T15:23:28Z) - Federated $f$-Differential Privacy [19.499120576896228]
フェデレートラーニング(Federated Learning, FL)とは、クライアントが繰り返し情報を共有することによってモデルを学ぶ訓練パラダイムである。
フェデレーション設定に特化した新しい概念である、フェデレーション$f$-differenceプライバシを紹介します。
そこで我々は,最先端flアルゴリズムの大規模ファミリーに対応する汎用的federated learningフレームワークprifedsyncを提案する。
論文 参考訳(メタデータ) (2021-02-22T16:28:21Z) - Private Reinforcement Learning with PAC and Regret Guarantees [69.4202374491817]
エピソード強化学習(RL)のためのプライバシー保護探索ポリシーを設計する。
まず、共同微分プライバシー(JDP)の概念を用いた有意義なプライバシー定式化を提供する。
そこで我々は,強いPACと後悔境界を同時に達成し,JDP保証を享受する,プライベートな楽観主義に基づく学習アルゴリズムを開発した。
論文 参考訳(メタデータ) (2020-09-18T20:18:35Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。