論文の概要: Federated Learning Attacks and Defenses: A Survey
- arxiv url: http://arxiv.org/abs/2211.14952v1
- Date: Sun, 27 Nov 2022 22:07:07 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-29 19:50:06.092171
- Title: Federated Learning Attacks and Defenses: A Survey
- Title(参考訳): フェデレーション・ラーニングの攻撃と防衛:調査
- Authors: Yao Chen, Yijie Gui, Hong Lin, Wensheng Gan, Yongdong Wu
- Abstract要約: 本稿では,現在のFLシステムの攻撃と対応する防御を系統的に分類する。
現在の3つの分類基準、すなわち機械学習の3つの段階、フェデレーション学習における3つの異なる役割、およびプライバシ保護に関するCIAのガイドラインの観点から、我々は、機械学習のトレーニング段階と予測段階に応じて、攻撃アプローチを2つのカテゴリに分割する。
- 参考スコア(独自算出の注目度): 6.980116513609015
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In terms of artificial intelligence, there are several security and privacy
deficiencies in the traditional centralized training methods of machine
learning models by a server. To address this limitation, federated learning
(FL) has been proposed and is known for breaking down ``data silos" and
protecting the privacy of users. However, FL has not yet gained popularity in
the industry, mainly due to its security, privacy, and high cost of
communication. For the purpose of advancing the research in this field,
building a robust FL system, and realizing the wide application of FL, this
paper sorts out the possible attacks and corresponding defenses of the current
FL system systematically. Firstly, this paper briefly introduces the basic
workflow of FL and related knowledge of attacks and defenses. It reviews a
great deal of research about privacy theft and malicious attacks that have been
studied in recent years. Most importantly, in view of the current three
classification criteria, namely the three stages of machine learning, the three
different roles in federated learning, and the CIA (Confidentiality, Integrity,
and Availability) guidelines on privacy protection, we divide attack approaches
into two categories according to the training stage and the prediction stage in
machine learning. Furthermore, we also identify the CIA property violated for
each attack method and potential attack role. Various defense mechanisms are
then analyzed separately from the level of privacy and security. Finally, we
summarize the possible challenges in the application of FL from the aspect of
attacks and defenses and discuss the future development direction of FL
systems. In this way, the designed FL system has the ability to resist
different attacks and is more secure and stable.
- Abstract(参考訳): 人工知能に関しては、サーバーによる機械学習モデルの従来の集中的なトレーニング方法には、セキュリティとプライバシの欠陥がいくつかある。
この制限に対処するため、フェデレートドラーニング(FL)が提案され、‘データサイロ’を分解し、ユーザのプライバシを保護することで知られている。
しかし、FLはセキュリティ、プライバシ、通信コストの高騰などにより、業界内ではまだ人気を博していない。
本研究の推進を目的として, 堅牢なflシステムを構築し, flの幅広い応用を実現するため, 現行のflシステムの攻撃可能性とその防御方法を体系的に整理した。
本稿ではまず,FLの基本ワークフローと関連する攻撃と防御に関する知識について紹介する。
近年研究されているプライバシー盗難と悪意のある攻撃について、多くの研究をレビューしている。
最も重要なのは、現在の3つの分類基準、すなわち機械学習の3つの段階、連合学習における3つの異なる役割、およびプライバシー保護に関するcia(confidentiality, integrity, and availability)ガイドラインの観点から、攻撃アプローチをトレーニング段階と機械学習の予測段階に応じて2つのカテゴリに分割することである。
さらに,攻撃方法や潜在的攻撃の役割に違反するCIAの資産も同定した。
様々な防御機構は、プライバシとセキュリティのレベルから別々に分析される。
最後に,flの適用における課題を攻撃・防衛の観点から要約し,flシステムの今後の展開方向について考察する。
このように、設計されたFLシステムは異なる攻撃に抵抗する能力があり、より安全で安定している。
関連論文リスト
- SaFL: Sybil-aware Federated Learning with Application to Face
Recognition [13.914187113334222]
Federated Learning(FL)は、顧客間で共同学習を行う機械学習パラダイムである。
マイナス面として、FLは研究を開始したばかりのセキュリティとプライバシに関する懸念を提起している。
本稿では,SAFL と呼ばれる FL の毒殺攻撃に対する新しい防御法を提案する。
論文 参考訳(メタデータ) (2023-11-07T21:06:06Z) - A Survey of Federated Unlearning: A Taxonomy, Challenges and Future
Directions [71.16718184611673]
プライバシ保護のためのフェデレートラーニング(FL)の進化により、忘れられる権利を実装する必要性が高まっている。
選択的な忘れ方の実装は、その分散した性質のため、FLでは特に困難である。
Federated Unlearning(FU)は、データプライバシの必要性の増加に対応する戦略的ソリューションとして登場した。
論文 参考訳(メタデータ) (2023-10-30T01:34:33Z) - A Survey of Trustworthy Federated Learning with Perspectives on
Security, Robustness, and Privacy [47.89042524852868]
Federated Learning (FL) は,さまざまな現実のシナリオに対して,有望なソリューションとして注目されている。
しかし、データの分離とプライバシーに関する課題は、FLシステムの信頼性を脅かす。
論文 参考訳(メタデータ) (2023-02-21T12:52:12Z) - Federated Learning: Applications, Challenges and Future Scopes [1.3190581566723918]
フェデレーション・ラーニング(Federated Learning, FL)とは、複数のクライアントが機械学習の問題を解決するために、中心的なアグリゲータが協調するシステムである。
FLは無線通信、サービスレコメンデーション、インテリジェント医療診断システム、医療に応用されている。
論文 参考訳(メタデータ) (2022-05-18T10:47:09Z) - Do Gradient Inversion Attacks Make Federated Learning Unsafe? [70.0231254112197]
フェデレートラーニング(FL)は、生データを共有することなく、AIモデルの協調トレーニングを可能にする。
モデル勾配からのディープニューラルネットワークの反転に関する最近の研究は、トレーニングデータの漏洩を防止するためのFLの安全性に関する懸念を提起した。
本研究では,本論文で提示されたこれらの攻撃が実際のFLユースケースでは実行不可能であることを示し,新たなベースライン攻撃を提供する。
論文 参考訳(メタデータ) (2022-02-14T18:33:12Z) - Decepticons: Corrupted Transformers Breach Privacy in Federated Learning
for Language Models [58.631918656336005]
悪意のあるパラメータベクトルを配置することで、プライベートなユーザテキストを明らかにする新たな攻撃を提案する。
FLに対する以前の攻撃とは異なり、攻撃はTransformerアーキテクチャとトークンの埋め込みの両方の特徴を利用する。
論文 参考訳(メタデータ) (2022-01-29T22:38:21Z) - Meta Federated Learning [57.52103907134841]
フェデレートラーニング(FL)は、時間的敵攻撃の訓練に弱い。
本稿では,メタフェデレーション学習(Meta Federated Learning, Meta-FL)を提案する。
論文 参考訳(メタデータ) (2021-02-10T16:48:32Z) - Privacy and Robustness in Federated Learning: Attacks and Defenses [74.62641494122988]
このトピックに関する最初の包括的な調査を実施します。
FLの概念の簡潔な紹介と、1脅威モデル、2堅牢性に対する中毒攻撃と防御、3プライバシーに対する推論攻撃と防御、というユニークな分類学を通じて、私たちはこの重要なトピックのアクセス可能なレビューを提供します。
論文 参考訳(メタデータ) (2020-12-07T12:11:45Z) - Threats to Federated Learning: A Survey [35.724483191921244]
フェデレーテッド・ラーニング(FL)は、この新しい現実の下で有望なソリューションとして登場した。
既存のFLプロトコルの設計は、敵に悪用される脆弱性を示すことが示されている。
本稿では、FLの概念を簡潔に紹介し、脅威モデルをカバーするユニークな分類法と、FLに対する2つの主要な攻撃について述べる。
論文 参考訳(メタデータ) (2020-03-04T15:30:10Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。