論文の概要: On the Security and Privacy of Federated Learning: A Survey with Attacks, Defenses, Frameworks, Applications, and Future Directions
- arxiv url: http://arxiv.org/abs/2508.13730v1
- Date: Tue, 19 Aug 2025 11:06:20 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-08-20 15:36:31.896956
- Title: On the Security and Privacy of Federated Learning: A Survey with Attacks, Defenses, Frameworks, Applications, and Future Directions
- Title(参考訳): フェデレーション学習のセキュリティとプライバシ:攻撃、防御、フレームワーク、アプリケーション、今後の方向性に関する調査
- Authors: Daniel M. Jimenez-Gutierrez, Yelizaveta Falkouskaya, Jose L. Hernandez-Ramos, Aris Anagnostopoulos, Ioannis Chatzigiannakis, Andrea Vitaletti,
- Abstract要約: Federated Learning(FL)は、クライアントが生データを共有せずにグローバルモデルを協調的にトレーニングできる、新興の分散機械学習パラダイムである。
FLはデータプライバシを設計によって強化するが、さまざまなセキュリティやプライバシの脅威に対して脆弱である。
セキュリティ強化手法は、ビザンチン攻撃、中毒、シビル攻撃などの悪意ある行動に対してFLの堅牢性を改善することを目的としている。
プライバシー保護技術は、暗号化アプローチ、差分プライバシー、セキュアアグリゲーションを通じて機密データを保護することに重点を置いている。
- 参考スコア(独自算出の注目度): 1.7056096558557128
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Federated Learning (FL) is an emerging distributed machine learning paradigm enabling multiple clients to train a global model collaboratively without sharing their raw data. While FL enhances data privacy by design, it remains vulnerable to various security and privacy threats. This survey provides a comprehensive overview of more than 200 papers regarding the state-of-the-art attacks and defense mechanisms developed to address these challenges, categorizing them into security-enhancing and privacy-preserving techniques. Security-enhancing methods aim to improve FL robustness against malicious behaviors such as byzantine attacks, poisoning, and Sybil attacks. At the same time, privacy-preserving techniques focus on protecting sensitive data through cryptographic approaches, differential privacy, and secure aggregation. We critically analyze the strengths and limitations of existing methods, highlight the trade-offs between privacy, security, and model performance, and discuss the implications of non-IID data distributions on the effectiveness of these defenses. Furthermore, we identify open research challenges and future directions, including the need for scalable, adaptive, and energy-efficient solutions operating in dynamic and heterogeneous FL environments. Our survey aims to guide researchers and practitioners in developing robust and privacy-preserving FL systems, fostering advancements safeguarding collaborative learning frameworks' integrity and confidentiality.
- Abstract(参考訳): Federated Learning(FL)は、複数のクライアントが生データを共有せずにグローバルモデルを協調的にトレーニングできる、新興の分散機械学習パラダイムである。
FLはデータプライバシを設計によって強化するが、さまざまなセキュリティやプライバシの脅威に対して脆弱である。
この調査は、これらの課題に対処するために開発された最先端の攻撃と防御メカニズムに関する200以上の論文の概要を提供し、それらをセキュリティ強化とプライバシ保護のテクニックに分類する。
セキュリティ強化手法は、ビザンチン攻撃、中毒、シビル攻撃などの悪意ある行動に対してFLの堅牢性を改善することを目的としている。
同時に、プライバシ保護技術は、暗号化アプローチ、差分プライバシー、セキュアアグリゲーションを通じて機密データを保護することに重点を置いている。
既存の手法の長所と短所を批判的に分析し、プライバシ、セキュリティ、モデルパフォーマンスのトレードオフを強調し、非IIDデータ分散がこれらの防御効果に与える影響について議論する。
さらに,動的かつ不均一なFL環境で動作するスケーラブルで適応的でエネルギー効率の高いソリューションの必要性を含む,オープンな研究課題と今後の方向性を明らかにした。
我々の調査は、研究者や実践者が堅牢でプライバシーを保護できるFLシステムの開発を指導し、協調学習フレームワークの完全性と機密性を保護するための進歩を促進することを目的としている。
関連論文リスト
- Ten Challenging Problems in Federated Foundation Models [55.343738234307544]
フェデレーション・ファンデーション・モデル(Federated Foundation Models、FedFM)は、フェデレーション・モデルの一般的な能力とフェデレーション・ラーニングのプライバシー保護能力を融合させる分散学習パラダイムである。
本稿では,FedFMに固有の10の課題について,基礎理論,プライベートデータの利用,継続学習,非学習,非IIDおよびグラフデータ,双方向知識伝達,インセンティブ機構設計,ゲーム機構設計,モデル透かし,効率を包括的に要約する。
論文 参考訳(メタデータ) (2025-02-14T04:01:15Z) - Deep Learning Model Security: Threats and Defenses [25.074630770554105]
ディープラーニングはAIアプリケーションを変えたが、重要なセキュリティ課題に直面している。
この調査は、これらの脆弱性を調べ、それらのメカニズムとモデル完全性と機密性への影響を詳細に示す。
この調査は、自動化された防御、ゼロトラストアーキテクチャ、大規模AIモデルのセキュリティ上の課題を強調し、今後の方向性を結論付けている。
論文 参考訳(メタデータ) (2024-12-12T06:04:20Z) - New Emerged Security and Privacy of Pre-trained Model: a Survey and Outlook [54.24701201956833]
セキュリティとプライバシーの問題は、事前訓練されたモデルに対するユーザーの信頼を損なう。
現在の文献は、事前訓練されたモデルに対する攻撃と防御の明確な分類を欠いている。
この分類法は、攻撃と防御をNo-Change、Input-Change、Model-Changeアプローチに分類する。
論文 参考訳(メタデータ) (2024-11-12T10:15:33Z) - FEDLAD: Federated Evaluation of Deep Leakage Attacks and Defenses [50.921333548391345]
フェデレーテッド・ラーニング(Federated Learning)は、分散型機械学習パラダイムをプライバシ保護するものだ。
近年の研究では、Deep Leakageと呼ばれる勾配技術によって、民間の真実データを復元できることが判明している。
本稿では、Deep Leakage攻撃と防御を評価するための総合的なベンチマークであるFEDLAD Framework(Federated Evaluation of Deep Leakage Attacks and Defenses)を紹介する。
論文 参考訳(メタデータ) (2024-11-05T11:42:26Z) - Trustworthy Federated Learning: Privacy, Security, and Beyond [37.495790989584584]
Federated Learning (FL)は、生データを転送することなく、分散データソース間で協調的なモデルトレーニングを促進することで、問題に対処する。
FLが抱えるセキュリティとプライバシに関する広範な調査を行い、通信リンクの脆弱性とサイバー脅威の可能性を明らかにします。
FLフレームワーク内で発生する複雑なセキュリティ課題を特定し、セキュアで効率的なFLシステムの開発に寄与することを目的としている。
論文 参考訳(メタデータ) (2024-11-03T14:18:01Z) - Security and Privacy Issues of Federated Learning [0.0]
フェデレートラーニング(FL)は、データのプライバシと機密性に対処するための有望なアプローチとして登場した。
本稿では,各種機械学習モデルを対象としたフェデレートラーニング(FL)におけるセキュリティとプライバシの包括的分類について述べる。
論文 参考訳(メタデータ) (2023-07-22T22:51:07Z) - A Survey of Trustworthy Federated Learning with Perspectives on
Security, Robustness, and Privacy [47.89042524852868]
Federated Learning (FL) は,さまざまな現実のシナリオに対して,有望なソリューションとして注目されている。
しかし、データの分離とプライバシーに関する課題は、FLシステムの信頼性を脅かす。
論文 参考訳(メタデータ) (2023-02-21T12:52:12Z) - Privacy and Robustness in Federated Learning: Attacks and Defenses [74.62641494122988]
このトピックに関する最初の包括的な調査を実施します。
FLの概念の簡潔な紹介と、1脅威モデル、2堅牢性に対する中毒攻撃と防御、3プライバシーに対する推論攻撃と防御、というユニークな分類学を通じて、私たちはこの重要なトピックのアクセス可能なレビューを提供します。
論文 参考訳(メタデータ) (2020-12-07T12:11:45Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。