論文の概要: On the Efficiency of Privacy Attacks in Federated Learning
- arxiv url: http://arxiv.org/abs/2404.09430v1
- Date: Mon, 15 Apr 2024 03:04:37 GMT
- ステータス: 処理完了
- システム内更新日: 2024-04-16 13:58:36.031476
- Title: On the Efficiency of Privacy Attacks in Federated Learning
- Title(参考訳): フェデレーション学習におけるプライバシ攻撃の効果について
- Authors: Nawrin Tabassum, Ka-Ho Chow, Xuyu Wang, Wenbin Zhang, Yanzhao Wu,
- Abstract要約: フェデレートラーニング(EPAFL)におけるプライバシ攻撃の効率向上のための枠組みを提案する。
まず,フェデレート学習における代表的プライバシ攻撃の計算コストを評価する。
第2に、これらのプライバシ攻撃の計算コストを効果的に削減する3つのアーリーストッピング手法を提案する。
- 参考スコア(独自算出の注目度): 10.287953123347057
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Recent studies have revealed severe privacy risks in federated learning, represented by Gradient Leakage Attacks. However, existing studies mainly aim at increasing the privacy attack success rate and overlook the high computation costs for recovering private data, making the privacy attack impractical in real applications. In this study, we examine privacy attacks from the perspective of efficiency and propose a framework for improving the Efficiency of Privacy Attacks in Federated Learning (EPAFL). We make three novel contributions. First, we systematically evaluate the computational costs for representative privacy attacks in federated learning, which exhibits a high potential to optimize efficiency. Second, we propose three early-stopping techniques to effectively reduce the computational costs of these privacy attacks. Third, we perform experiments on benchmark datasets and show that our proposed method can significantly reduce computational costs and maintain comparable attack success rates for state-of-the-art privacy attacks in federated learning. We provide the codes on GitHub at https://github.com/mlsysx/EPAFL.
- Abstract(参考訳): 最近の研究では、グラディエント・リーク・アタック(Gradient Leakage Attacks)に代表される、連合学習における深刻なプライバシーリスクが明らかにされている。
しかし,従来の研究では,プライバシ攻撃の成功率の向上と,プライベートデータの回収に要する高い計算コストの見落としが主な目的であり,実際のアプリケーションではプライバシ攻撃を非現実的なものにしている。
本研究では,効率の観点からプライバシ攻撃について検討し,フェデレート学習(EPAFL)におけるプライバシ攻撃の効率向上のための枠組みを提案する。
私たちは3つの新しい貢献をしている。
まず、フェデレーション学習における代表的プライバシ攻撃の計算コストを体系的に評価し、効率を最適化する高い可能性を示す。
第2に、これらのプライバシ攻撃の計算コストを効果的に削減する3つのアーリーストッピング手法を提案する。
第3に,我々はベンチマークデータセットの実験を行い,提案手法が計算コストを大幅に削減し,フェデレート学習における最先端のプライバシ攻撃に対する攻撃成功率を同等に維持できることを示す。
私たちはGitHubでhttps://github.com/mlsysx/EPAFL.comでコードを公開しています。
関連論文リスト
- FEDLAD: Federated Evaluation of Deep Leakage Attacks and Defenses [50.921333548391345]
フェデレーテッド・ラーニング(Federated Learning)は、分散型機械学習パラダイムをプライバシ保護するものだ。
近年の研究では、Deep Leakageと呼ばれる勾配技術によって、民間の真実データを復元できることが判明している。
本稿では、Deep Leakage攻撃と防御を評価するための総合的なベンチマークであるFEDLAD Framework(Federated Evaluation of Deep Leakage Attacks and Defenses)を紹介する。
論文 参考訳(メタデータ) (2024-11-05T11:42:26Z) - Privacy Attack in Federated Learning is Not Easy: An Experimental Study [5.065947993017158]
フェデレートラーニング(Federated Learning, FL)は、プライバシ保護のために提案される分散機械学習のパラダイムである。
近年の研究では、FLはプライバシー保護を完全に保証できないことが示されている。
プライバシ攻撃FLアルゴリズムが現実的なフェデレーション環境で有効かどうかは不明だ。
論文 参考訳(メタデータ) (2024-09-28T10:06:34Z) - FewFedPIT: Towards Privacy-preserving and Few-shot Federated Instruction Tuning [54.26614091429253]
フェデレーション・インストラクション・チューニング(FedIT)は、複数のデータ所有者間で協調的なトレーニングを統合することで、有望なソリューションである。
FedITは、インストラクショナルデータの不足や、トレーニングデータ抽出攻撃への露出リスクなどの制限に直面している。
本稿では,FewFedPITを提案する。このFewFedPITは,フェデレートされた数ショット学習のプライバシー保護とモデル性能を同時に向上する。
論文 参考訳(メタデータ) (2024-03-10T08:41:22Z) - PROFL: A Privacy-Preserving Federated Learning Method with Stringent
Defense Against Poisoning Attacks [2.6487166137163007]
Federated Learning(FL)は、プライバシー漏洩と中毒攻撃という2つの大きな問題に直面している。
本稿では,プライバシー保護のための新しいFLフレームワーク PROFL を提案する。
PROFLは2タラプドア追加の同型暗号化アルゴリズムとブラインド技術に基づいている。
論文 参考訳(メタデータ) (2023-12-02T06:34:37Z) - A Cautionary Tale: On the Role of Reference Data in Empirical Privacy
Defenses [12.34501903200183]
本稿では,トレーニングデータと参照データの両方に関して,ユーティリティプライバシトレードオフを容易に理解可能なベースラインディフェンスを提案する。
私たちの実験では、驚くべきことに、最もよく研究され、現在最先端の実証的なプライバシー保護よりも優れています。
論文 参考訳(メタデータ) (2023-10-18T17:07:07Z) - Re-thinking Data Availablity Attacks Against Deep Neural Networks [53.64624167867274]
本稿では、未学習例の概念を再検討し、既存のロバストな誤り最小化ノイズが不正確な最適化目標であることを示す。
本稿では,計算時間要件の低減による保護性能の向上を図った新しい最適化パラダイムを提案する。
論文 参考訳(メタデータ) (2023-05-18T04:03:51Z) - No Free Lunch in "Privacy for Free: How does Dataset Condensation Help
Privacy" [75.98836424725437]
データプライバシを保護するために設計された新しい手法は、慎重に精査する必要がある。
プライバシ保護の失敗は検出し難いが,プライバシ保護法を実装したシステムが攻撃された場合,破滅的な結果につながる可能性がある。
論文 参考訳(メタデータ) (2022-09-29T17:50:23Z) - On the Privacy Effect of Data Enhancement via the Lens of Memorization [20.63044895680223]
我々は,記憶化という新たな視点からプライバシを調査することを提案する。
記憶のレンズを通して、以前デプロイされたMIAは、より高いプライバシーリスクを持つサンプルを特定する可能性が低いため、誤解を招く結果をもたらすことがわかった。
一般化ギャップとプライバシリークは, これまでの結果に比べて相関が低いことを示す。
論文 参考訳(メタデータ) (2022-08-17T13:02:17Z) - Defense Against Gradient Leakage Attacks via Learning to Obscure Data [48.67836599050032]
フェデレートラーニングは、効果的なプライバシー保護学習メカニズムと考えられている。
本稿では,不明瞭なデータに学習することで,クライアントのデータ保護のための新しい防御手法を提案する。
論文 参考訳(メタデータ) (2022-06-01T21:03:28Z) - Privacy and Robustness in Federated Learning: Attacks and Defenses [74.62641494122988]
このトピックに関する最初の包括的な調査を実施します。
FLの概念の簡潔な紹介と、1脅威モデル、2堅牢性に対する中毒攻撃と防御、3プライバシーに対する推論攻撃と防御、というユニークな分類学を通じて、私たちはこの重要なトピックのアクセス可能なレビューを提供します。
論文 参考訳(メタデータ) (2020-12-07T12:11:45Z) - Rethinking Privacy Preserving Deep Learning: How to Evaluate and Thwart
Privacy Attacks [31.34410250008759]
本稿では、モデル精度と、再構築、追跡、およびメンバーシップ攻撃によるプライバシ損失とのトレードオフを計測する。
実験の結果,モデル精度はベースライン機構と比較して平均5~20%向上した。
論文 参考訳(メタデータ) (2020-06-20T15:48:57Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。