論文の概要: Task-Agnostic Privacy-Preserving Representation Learning for Federated Learning Against Attribute Inference Attacks
- arxiv url: http://arxiv.org/abs/2312.06989v1
- Date: Tue, 12 Dec 2023 05:17:34 GMT
- ステータス: 処理完了
- システム内更新日: 2024-03-18 12:36:38.815745
- Title: Task-Agnostic Privacy-Preserving Representation Learning for Federated Learning Against Attribute Inference Attacks
- Title(参考訳): 属性推論攻撃に対するフェデレーション学習のためのタスク非依存のプライバシ保護表現学習
- Authors: Caridad Arroyo Arevalo, Sayedeh Leila Noorbakhsh, Yun Dong, Yuan Hong, Binghui Wang,
- Abstract要約: フェデレートラーニング(FL)は、生データを共有せずに、異なるデバイスからデータを協調的にトレーニングする特性のために、近年広く研究されている。
最近の研究によると、敵は依然としてデバイスのデータ、例えば収入、人種、性的指向などのセンシティブな属性に関する情報を推測することができる。
我々は,属性推論攻撃に対するFL(bf TAPPFL)のタスク依存型プライバシ保護プレゼンテーション学習手法を開発した。
- 参考スコア(独自算出の注目度): 21.83308540799076
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Federated learning (FL) has been widely studied recently due to its property to collaboratively train data from different devices without sharing the raw data. Nevertheless, recent studies show that an adversary can still be possible to infer private information about devices' data, e.g., sensitive attributes such as income, race, and sexual orientation. To mitigate the attribute inference attacks, various existing privacy-preserving FL methods can be adopted/adapted. However, all these existing methods have key limitations: they need to know the FL task in advance, or have intolerable computational overheads or utility losses, or do not have provable privacy guarantees. We address these issues and design a task-agnostic privacy-preserving presentation learning method for FL ({\bf TAPPFL}) against attribute inference attacks. TAPPFL is formulated via information theory. Specifically, TAPPFL has two mutual information goals, where one goal learns task-agnostic data representations that contain the least information about the private attribute in each device's data, and the other goal ensures the learnt data representations include as much information as possible about the device data to maintain FL utility. We also derive privacy guarantees of TAPPFL against worst-case attribute inference attacks, as well as the inherent tradeoff between utility preservation and privacy protection. Extensive results on multiple datasets and applications validate the effectiveness of TAPPFL to protect data privacy, maintain the FL utility, and be efficient as well. Experimental results also show that TAPPFL outperforms the existing defenses\footnote{Source code and full version: \url{https://github.com/TAPPFL}}.
- Abstract(参考訳): フェデレートラーニング(FL)は、生データを共有せずに、異なるデバイスからデータを協調的にトレーニングする特性のために、近年広く研究されている。
それにもかかわらず、最近の研究では、敵はデバイスのデータ、例えば収入、人種、性的指向などのセンシティブな属性に関する個人情報を推論することが可能である。
属性推論攻撃を軽減するために、さまざまなプライバシ保護FLメソッドを採用/適用することができる。
FLタスクを事前に知るか、計算上のオーバーヘッドやユーティリティ損失を許容できないか、あるいは証明可能なプライバシ保証を持っていないかである。
本稿では,これらの課題に対処し,属性推論攻撃に対するFL({\bf TAPPFL})のタスク依存型プライバシ保護プレゼンテーション学習手法を設計する。
TAPPFLは情報理論によって定式化されている。
具体的には、TAPPFLは2つの相互情報目標を持ち、1つのゴールが各デバイスのデータ内のプライベート属性に関する最小情報を含むタスクに依存しないデータ表現を学習し、もう1つのゴールは、FLユーティリティを維持するためにデバイスデータに関する可能な限り多くの情報を含むことを確実にする。
また、TAPPFLのプライバシー保証は、最悪の属性推論攻撃や、ユーティリティ保護とプライバシ保護の本質的にのトレードオフに対してもたらします。
複数のデータセットやアプリケーションの大規模な結果から、データプライバシ保護、FLユーティリティのメンテナンス、効率向上のためのTAPPFLの有効性が検証されている。
実験の結果、TAPPFLは既存のdefaults\footnote{Sourceコードとフルバージョンより優れていることが示されている。
関連論文リスト
- Privacy Attack in Federated Learning is Not Easy: An Experimental Study [5.065947993017158]
フェデレートラーニング(Federated Learning, FL)は、プライバシ保護のために提案される分散機械学習のパラダイムである。
近年の研究では、FLはプライバシー保護を完全に保証できないことが示されている。
プライバシ攻撃FLアルゴリズムが現実的なフェデレーション環境で有効かどうかは不明だ。
論文 参考訳(メタデータ) (2024-09-28T10:06:34Z) - UIFV: Data Reconstruction Attack in Vertical Federated Learning [5.404398887781436]
Vertical Federated Learning (VFL)は、参加者が生のプライベートデータを共有することなく、協調的な機械学習を促進する。
近年の研究では、学習プロセス中にデータ漏洩によって、敵が機密性を再構築する可能性のあるプライバシーリスクが明らかにされている。
我々の研究は、実用的なVFLアプリケーションに真の脅威をもたらす、VFLシステム内の深刻なプライバシー上の脆弱性を露呈する。
論文 参考訳(メタデータ) (2024-06-18T13:18:52Z) - Federated Learning Privacy: Attacks, Defenses, Applications, and Policy Landscape - A Survey [27.859861825159342]
ディープラーニングは、さまざまなタスクにおいて、信じられないほど大きな可能性を秘めている。
プライバシーに関する最近の懸念は、そのようなデータにアクセスする際の課題をさらに強調している。
フェデレーション学習は重要なプライバシー保護技術として登場した。
論文 参考訳(メタデータ) (2024-05-06T16:55:20Z) - Ungeneralizable Examples [70.76487163068109]
学習不能なデータを作成するための現在のアプローチには、小さくて特殊なノイズが組み込まれている。
学習不能データの概念を条件付きデータ学習に拡張し、textbfUntextbf Generalizable textbfExamples (UGEs)を導入する。
UGEは認証されたユーザに対して学習性を示しながら、潜在的なハッカーに対する非学習性を維持している。
論文 参考訳(メタデータ) (2024-04-22T09:29:14Z) - FewFedPIT: Towards Privacy-preserving and Few-shot Federated Instruction Tuning [54.26614091429253]
フェデレーション・インストラクション・チューニング(FedIT)は、複数のデータ所有者間で協調的なトレーニングを統合することで、有望なソリューションである。
FedITは、インストラクショナルデータの不足や、トレーニングデータ抽出攻撃への露出リスクなどの制限に直面している。
本稿では,FewFedPITを提案する。このFewFedPITは,フェデレートされた数ショット学習のプライバシー保護とモデル性能を同時に向上する。
論文 参考訳(メタデータ) (2024-03-10T08:41:22Z) - UFed-GAN: A Secure Federated Learning Framework with Constrained
Computation and Unlabeled Data [50.13595312140533]
本稿では,UFed-GAN: Unsupervised Federated Generative Adversarial Networkを提案する。
実験により,プライバシを保ちながら,限られた計算資源とラベルなしデータに対処するUFed-GANの強い可能性を示す。
論文 参考訳(メタデータ) (2023-08-10T22:52:13Z) - Fair Differentially Private Federated Learning Framework [0.0]
Federated Learning(FL)は、参加者が個々のデータセットを共有することなく、協力し、共有モデルをトレーニングすることのできる、分散機械学習戦略である。
FLではプライバシと公平性が重要な考慮事項である。
本稿では、検証データなしで公正なグローバルモデルを作成し、グローバルなプライベートディファレンシャルモデルを作成するという課題に対処する枠組みを提案する。
論文 参考訳(メタデータ) (2023-05-23T09:58:48Z) - Mutual Information Regularization for Vertical Federated Learning [6.458078197870505]
Vertical Federated Learning (VFL)は、データプライバシと安全性を保護しながら協調学習を可能にするために、現実世界のアプリケーションで広く利用されている。
以前の研究によると、VFLのラベル(パッシブパーティ)を持たない当事者は、その当事者が所有する機密ラベル情報をラベル(アクティブパーティ)で推測したり、VFLに対するバックドアアタックを実行することができる。
本稿では,特徴とラベル,中間出力を含むプライベート生データ間の相互情報を制限し,モデルユーティリティとプライバシのトレードオフを改善するための汎用防衛手法を提案する。
論文 参考訳(メタデータ) (2023-01-01T02:03:34Z) - Do Gradient Inversion Attacks Make Federated Learning Unsafe? [70.0231254112197]
フェデレートラーニング(FL)は、生データを共有することなく、AIモデルの協調トレーニングを可能にする。
モデル勾配からのディープニューラルネットワークの反転に関する最近の研究は、トレーニングデータの漏洩を防止するためのFLの安全性に関する懸念を提起した。
本研究では,本論文で提示されたこれらの攻撃が実際のFLユースケースでは実行不可能であることを示し,新たなベースライン攻撃を提供する。
論文 参考訳(メタデータ) (2022-02-14T18:33:12Z) - Provable Defense against Privacy Leakage in Federated Learning from
Representation Perspective [47.23145404191034]
Federated Learning(FL)は、プライベートデータを明示的に共有しないことでプライバシーリスクを低減できる人気の分散学習フレームワークです。
近年の研究では、モデル更新の共有がflを推論攻撃に対して脆弱にすることを示した。
我々は,勾配からのデータ表現漏洩がflにおけるプライバシー漏洩の本質的原因であることを示す。
論文 参考訳(メタデータ) (2020-12-08T20:42:12Z) - Privacy and Robustness in Federated Learning: Attacks and Defenses [74.62641494122988]
このトピックに関する最初の包括的な調査を実施します。
FLの概念の簡潔な紹介と、1脅威モデル、2堅牢性に対する中毒攻撃と防御、3プライバシーに対する推論攻撃と防御、というユニークな分類学を通じて、私たちはこの重要なトピックのアクセス可能なレビューを提供します。
論文 参考訳(メタデータ) (2020-12-07T12:11:45Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。