論文の概要: Federated Learning Attacks and Defenses: A Survey
- arxiv url: http://arxiv.org/abs/2211.14952v1
- Date: Sun, 27 Nov 2022 22:07:07 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-29 19:50:06.092171
- Title: Federated Learning Attacks and Defenses: A Survey
- Title(参考訳): フェデレーション・ラーニングの攻撃と防衛:調査
- Authors: Yao Chen, Yijie Gui, Hong Lin, Wensheng Gan, Yongdong Wu
- Abstract要約: 本稿では,現在のFLシステムの攻撃と対応する防御を系統的に分類する。
現在の3つの分類基準、すなわち機械学習の3つの段階、フェデレーション学習における3つの異なる役割、およびプライバシ保護に関するCIAのガイドラインの観点から、我々は、機械学習のトレーニング段階と予測段階に応じて、攻撃アプローチを2つのカテゴリに分割する。
- 参考スコア(独自算出の注目度): 6.980116513609015
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In terms of artificial intelligence, there are several security and privacy
deficiencies in the traditional centralized training methods of machine
learning models by a server. To address this limitation, federated learning
(FL) has been proposed and is known for breaking down ``data silos" and
protecting the privacy of users. However, FL has not yet gained popularity in
the industry, mainly due to its security, privacy, and high cost of
communication. For the purpose of advancing the research in this field,
building a robust FL system, and realizing the wide application of FL, this
paper sorts out the possible attacks and corresponding defenses of the current
FL system systematically. Firstly, this paper briefly introduces the basic
workflow of FL and related knowledge of attacks and defenses. It reviews a
great deal of research about privacy theft and malicious attacks that have been
studied in recent years. Most importantly, in view of the current three
classification criteria, namely the three stages of machine learning, the three
different roles in federated learning, and the CIA (Confidentiality, Integrity,
and Availability) guidelines on privacy protection, we divide attack approaches
into two categories according to the training stage and the prediction stage in
machine learning. Furthermore, we also identify the CIA property violated for
each attack method and potential attack role. Various defense mechanisms are
then analyzed separately from the level of privacy and security. Finally, we
summarize the possible challenges in the application of FL from the aspect of
attacks and defenses and discuss the future development direction of FL
systems. In this way, the designed FL system has the ability to resist
different attacks and is more secure and stable.
- Abstract(参考訳): 人工知能に関しては、サーバーによる機械学習モデルの従来の集中的なトレーニング方法には、セキュリティとプライバシの欠陥がいくつかある。
この制限に対処するため、フェデレートドラーニング(FL)が提案され、‘データサイロ’を分解し、ユーザのプライバシを保護することで知られている。
しかし、FLはセキュリティ、プライバシ、通信コストの高騰などにより、業界内ではまだ人気を博していない。
本研究の推進を目的として, 堅牢なflシステムを構築し, flの幅広い応用を実現するため, 現行のflシステムの攻撃可能性とその防御方法を体系的に整理した。
本稿ではまず,FLの基本ワークフローと関連する攻撃と防御に関する知識について紹介する。
近年研究されているプライバシー盗難と悪意のある攻撃について、多くの研究をレビューしている。
最も重要なのは、現在の3つの分類基準、すなわち機械学習の3つの段階、連合学習における3つの異なる役割、およびプライバシー保護に関するcia(confidentiality, integrity, and availability)ガイドラインの観点から、攻撃アプローチをトレーニング段階と機械学習の予測段階に応じて2つのカテゴリに分割することである。
さらに,攻撃方法や潜在的攻撃の役割に違反するCIAの資産も同定した。
様々な防御機構は、プライバシとセキュリティのレベルから別々に分析される。
最後に,flの適用における課題を攻撃・防衛の観点から要約し,flシステムの今後の展開方向について考察する。
このように、設計されたFLシステムは異なる攻撃に抵抗する能力があり、より安全で安定している。
関連論文リスト
- Enhancing Trust and Privacy in Distributed Networks: A Comprehensive Survey on Blockchain-based Federated Learning [51.13534069758711]
ブロックチェーンのような分散型アプローチは、複数のエンティティ間でコンセンサスメカニズムを実装することで、魅力的なソリューションを提供する。
フェデレートラーニング(FL)は、参加者がデータのプライバシを保護しながら、協力的にモデルをトレーニングすることを可能にする。
本稿では,ブロックチェーンのセキュリティ機能とFLのプライバシ保護モデルトレーニング機能の相乗効果について検討する。
論文 参考訳(メタデータ) (2024-03-28T07:08:26Z) - Federated Learning: Attacks, Defenses, Opportunities, and Challenges [0.0]
AIの新しい時代の始まりは連邦学習(FL)だと考える人も多いが、まだ未熟である。
FLは、セキュリティとプライバシーに関する議論があるので、コミュニティの信頼を損なうことはなかった。
本研究はFLのセキュリティとプライバシ機能の完全な概要を提供することを目的としている。
論文 参考訳(メタデータ) (2024-03-10T03:05:59Z) - SaFL: Sybil-aware Federated Learning with Application to Face
Recognition [13.914187113334222]
Federated Learning(FL)は、顧客間で共同学習を行う機械学習パラダイムである。
マイナス面として、FLは研究を開始したばかりのセキュリティとプライバシに関する懸念を提起している。
本稿では,SAFL と呼ばれる FL の毒殺攻撃に対する新しい防御法を提案する。
論文 参考訳(メタデータ) (2023-11-07T21:06:06Z) - A Survey of Federated Unlearning: A Taxonomy, Challenges and Future
Directions [71.16718184611673]
プライバシ保護のためのフェデレートラーニング(FL)の進化により、忘れられる権利を実装する必要性が高まっている。
選択的な忘れ方の実装は、その分散した性質のため、FLでは特に困難である。
Federated Unlearning(FU)は、データプライバシの必要性の増加に対応する戦略的ソリューションとして登場した。
論文 参考訳(メタデータ) (2023-10-30T01:34:33Z) - A Survey of Trustworthy Federated Learning with Perspectives on
Security, Robustness, and Privacy [47.89042524852868]
Federated Learning (FL) は,さまざまな現実のシナリオに対して,有望なソリューションとして注目されている。
しかし、データの分離とプライバシーに関する課題は、FLシステムの信頼性を脅かす。
論文 参考訳(メタデータ) (2023-02-21T12:52:12Z) - Decepticons: Corrupted Transformers Breach Privacy in Federated Learning
for Language Models [58.631918656336005]
悪意のあるパラメータベクトルを配置することで、プライベートなユーザテキストを明らかにする新たな攻撃を提案する。
FLに対する以前の攻撃とは異なり、攻撃はTransformerアーキテクチャとトークンの埋め込みの両方の特徴を利用する。
論文 参考訳(メタデータ) (2022-01-29T22:38:21Z) - Meta Federated Learning [57.52103907134841]
フェデレートラーニング(FL)は、時間的敵攻撃の訓練に弱い。
本稿では,メタフェデレーション学習(Meta Federated Learning, Meta-FL)を提案する。
論文 参考訳(メタデータ) (2021-02-10T16:48:32Z) - Privacy and Robustness in Federated Learning: Attacks and Defenses [74.62641494122988]
このトピックに関する最初の包括的な調査を実施します。
FLの概念の簡潔な紹介と、1脅威モデル、2堅牢性に対する中毒攻撃と防御、3プライバシーに対する推論攻撃と防御、というユニークな分類学を通じて、私たちはこの重要なトピックのアクセス可能なレビューを提供します。
論文 参考訳(メタデータ) (2020-12-07T12:11:45Z) - Threats to Federated Learning: A Survey [35.724483191921244]
フェデレーテッド・ラーニング(FL)は、この新しい現実の下で有望なソリューションとして登場した。
既存のFLプロトコルの設計は、敵に悪用される脆弱性を示すことが示されている。
本稿では、FLの概念を簡潔に紹介し、脅威モデルをカバーするユニークな分類法と、FLに対する2つの主要な攻撃について述べる。
論文 参考訳(メタデータ) (2020-03-04T15:30:10Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。