論文の概要: Threats and Defenses in Federated Learning Life Cycle: A Comprehensive Survey and Challenges
- arxiv url: http://arxiv.org/abs/2407.06754v1
- Date: Tue, 9 Jul 2024 11:05:45 GMT
- ステータス: 処理完了
- システム内更新日: 2024-07-10 18:26:46.460592
- Title: Threats and Defenses in Federated Learning Life Cycle: A Comprehensive Survey and Challenges
- Title(参考訳): フェデレーションラーニングライフサイクルにおける脅威と防御--包括的調査と課題
- Authors: Yanli Li, Jifei Hu, Zhongliang Guo, Nan Yang, Huaming Chen, Dong Yuan, Weiping Ding,
- Abstract要約: Federated Learning (FL)は、プライバシ保護協調機械学習(ML)のための革新的なソリューションを提供する
その有望な可能性にもかかわらず、FLは分散した性質のため、様々な攻撃に対して脆弱である。
本稿では、FLサービスライフサイクル全体を通じて最も代表的で最先端の脅威および防衛フレームワークについてレビューする。
- 参考スコア(独自算出の注目度): 21.690112212707813
- License: http://creativecommons.org/publicdomain/zero/1.0/
- Abstract: Federated Learning (FL) offers innovative solutions for privacy-preserving collaborative machine learning (ML). Despite its promising potential, FL is vulnerable to various attacks due to its distributed nature, affecting the entire life cycle of FL services. These threats can harm the model's utility or compromise participants' privacy, either directly or indirectly. In response, numerous defense frameworks have been proposed, demonstrating effectiveness in specific settings and scenarios. To provide a clear understanding of the current research landscape, this paper reviews the most representative and state-of-the-art threats and defense frameworks throughout the FL service life cycle. We start by identifying FL threats that harm utility and privacy, including those with potential or direct impacts. Then, we dive into the defense frameworks, analyze the relationship between threats and defenses, and compare the trade-offs among different defense strategies. Finally, we summarize current research bottlenecks and offer insights into future research directions to conclude this survey. We hope this survey sheds light on trustworthy FL research and contributes to the FL community.
- Abstract(参考訳): Federated Learning (FL)は、プライバシ保護のための協調機械学習(ML)のための革新的なソリューションを提供する。
その有望な可能性にもかかわらず、FLは分散した性質のために様々な攻撃に対して脆弱であり、FLサービスのライフサイクル全体に影響を及ぼす。
これらの脅威はモデルの実用性を傷つけたり、直接的または間接的に参加者のプライバシーを侵害する可能性がある。
これに対し、特定の設定やシナリオでの有効性を示す多くの防衛フレームワークが提案されている。
本稿では,FLサービスライフサイクル全体を通じて,最も代表的で最先端の脅威と防衛の枠組みを概観する。
まず、可能性や直接的な影響のあるものを含む、ユーティリティとプライバシを害するFL脅威を特定します。
そして、防衛枠組みを掘り下げ、脅威と防衛の関係を分析し、異なる防衛戦略のトレードオフを比較する。
最後に、現在の研究ボトルネックを概説し、今後の研究方向性についての洞察を提供して、この調査を結論づける。
この調査は、信頼できるFL研究に光を当て、FLコミュニティに貢献することを願っています。
関連論文リスト
- Trustworthy Federated Learning: Privacy, Security, and Beyond [37.495790989584584]
Federated Learning (FL)は、生データを転送することなく、分散データソース間で協調的なモデルトレーニングを促進することで、問題に対処する。
FLが抱えるセキュリティとプライバシに関する広範な調査を行い、通信リンクの脆弱性とサイバー脅威の可能性を明らかにします。
FLフレームワーク内で発生する複雑なセキュリティ課題を特定し、セキュアで効率的なFLシステムの開発に寄与することを目的としている。
論文 参考訳(メタデータ) (2024-11-03T14:18:01Z) - Vertical Federated Learning for Effectiveness, Security, Applicability: A Survey [67.48187503803847]
Vertical Federated Learning(VFL)は、プライバシ保護のための分散学習パラダイムである。
近年の研究では、VFLの様々な課題に対処する有望な成果が示されている。
この調査は、最近の展開を体系的に概観する。
論文 参考訳(メタデータ) (2024-05-25T16:05:06Z) - Federated Learning: Attacks, Defenses, Opportunities, and Challenges [0.0]
AIの新しい時代の始まりは連邦学習(FL)だと考える人も多いが、まだ未熟である。
FLは、セキュリティとプライバシーに関する議論があるので、コミュニティの信頼を損なうことはなかった。
本研究はFLのセキュリティとプライバシ機能の完全な概要を提供することを目的としている。
論文 参考訳(メタデータ) (2024-03-10T03:05:59Z) - A Survey of Federated Unlearning: A Taxonomy, Challenges and Future
Directions [71.16718184611673]
プライバシ保護のためのフェデレートラーニング(FL)の進化により、忘れられる権利を実装する必要性が高まっている。
選択的な忘れ方の実装は、その分散した性質のため、FLでは特に困難である。
Federated Unlearning(FU)は、データプライバシの必要性の増加に対応する戦略的ソリューションとして登場した。
論文 参考訳(メタデータ) (2023-10-30T01:34:33Z) - A Survey of Trustworthy Federated Learning with Perspectives on
Security, Robustness, and Privacy [47.89042524852868]
Federated Learning (FL) は,さまざまな現実のシナリオに対して,有望なソリューションとして注目されている。
しかし、データの分離とプライバシーに関する課題は、FLシステムの信頼性を脅かす。
論文 参考訳(メタデータ) (2023-02-21T12:52:12Z) - Federated Learning Attacks and Defenses: A Survey [6.980116513609015]
本稿では,現在のFLシステムの攻撃と対応する防御を系統的に分類する。
現在の3つの分類基準、すなわち機械学習の3つの段階、フェデレーション学習における3つの異なる役割、およびプライバシ保護に関するCIAのガイドラインの観点から、我々は、機械学習のトレーニング段階と予測段階に応じて、攻撃アプローチを2つのカテゴリに分割する。
論文 参考訳(メタデータ) (2022-11-27T22:07:07Z) - FLIP: A Provable Defense Framework for Backdoor Mitigation in Federated
Learning [66.56240101249803]
我々は,クライアントの強固化がグローバルモデル(および悪意のあるクライアント)に与える影響について検討する。
本稿では, 逆エンジニアリングによる防御手法を提案するとともに, 堅牢性を保証して, 改良を実現できることを示す。
競合する8つのSOTA防御法について, 単発および連続のFLバックドア攻撃に対して, 提案手法の実証的優位性を示した。
論文 参考訳(メタデータ) (2022-10-23T22:24:03Z) - Challenges and approaches for mitigating byzantine attacks in federated
learning [6.836162272841266]
フェデレーテッド・ラーニング(FL)は、多くの無線エンドユーザーデバイスがデータを使いながらグローバルモデルをトレーニングできる、魅力的な分散学習フレームワークである。
将来性はあるものの、従来の分散ネットワークの難易度の高い脅威であるビザンチン攻撃はFLにも有効であることが判明した。
そこで我々は,これらの防御策を打ち破り,その脅威を実証するための実験を行うために,重み攻撃と呼ばれる新たなビザンチン攻撃法を提案する。
論文 参考訳(メタデータ) (2021-12-29T09:24:05Z) - Provable Defense against Privacy Leakage in Federated Learning from
Representation Perspective [47.23145404191034]
Federated Learning(FL)は、プライベートデータを明示的に共有しないことでプライバシーリスクを低減できる人気の分散学習フレームワークです。
近年の研究では、モデル更新の共有がflを推論攻撃に対して脆弱にすることを示した。
我々は,勾配からのデータ表現漏洩がflにおけるプライバシー漏洩の本質的原因であることを示す。
論文 参考訳(メタデータ) (2020-12-08T20:42:12Z) - Privacy and Robustness in Federated Learning: Attacks and Defenses [74.62641494122988]
このトピックに関する最初の包括的な調査を実施します。
FLの概念の簡潔な紹介と、1脅威モデル、2堅牢性に対する中毒攻撃と防御、3プライバシーに対する推論攻撃と防御、というユニークな分類学を通じて、私たちはこの重要なトピックのアクセス可能なレビューを提供します。
論文 参考訳(メタデータ) (2020-12-07T12:11:45Z) - Threats to Federated Learning: A Survey [35.724483191921244]
フェデレーテッド・ラーニング(FL)は、この新しい現実の下で有望なソリューションとして登場した。
既存のFLプロトコルの設計は、敵に悪用される脆弱性を示すことが示されている。
本稿では、FLの概念を簡潔に紹介し、脅威モデルをカバーするユニークな分類法と、FLに対する2つの主要な攻撃について述べる。
論文 参考訳(メタデータ) (2020-03-04T15:30:10Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。