論文の概要: Privacy and Robustness in Federated Learning: Attacks and Defenses
- arxiv url: http://arxiv.org/abs/2012.06337v1
- Date: Mon, 7 Dec 2020 12:11:45 GMT
- ステータス: 処理完了
- システム内更新日: 2021-05-20 10:32:40.948727
- Title: Privacy and Robustness in Federated Learning: Attacks and Defenses
- Title(参考訳): 連合学習におけるプライバシと堅牢性:攻撃と防御
- Authors: Lingjuan Lyu, Han Yu, Xingjun Ma, Lichao Sun, Jun Zhao, Qiang Yang,
Philip S. Yu
- Abstract要約: このトピックに関する最初の包括的な調査を実施します。
FLの概念の簡潔な紹介と、1脅威モデル、2堅牢性に対する中毒攻撃と防御、3プライバシーに対する推論攻撃と防御、というユニークな分類学を通じて、私たちはこの重要なトピックのアクセス可能なレビューを提供します。
- 参考スコア(独自算出の注目度): 74.62641494122988
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: As data are increasingly being stored in different silos and societies
becoming more aware of data privacy issues, the traditional centralized
training of artificial intelligence (AI) models is facing efficiency and
privacy challenges. Recently, federated learning (FL) has emerged as an
alternative solution and continue to thrive in this new reality. Existing FL
protocol design has been shown to be vulnerable to adversaries within or
outside of the system, compromising data privacy and system robustness. Besides
training powerful global models, it is of paramount importance to design FL
systems that have privacy guarantees and are resistant to different types of
adversaries. In this paper, we conduct the first comprehensive survey on this
topic. Through a concise introduction to the concept of FL, and a unique
taxonomy covering: 1) threat models; 2) poisoning attacks and defenses against
robustness; 3) inference attacks and defenses against privacy, we provide an
accessible review of this important topic. We highlight the intuitions, key
techniques as well as fundamental assumptions adopted by various attacks and
defenses. Finally, we discuss promising future research directions towards
robust and privacy-preserving federated learning.
- Abstract(参考訳): データがさまざまなサイロに格納され、社会がデータプライバシの問題をより意識するようになるにつれ、従来の人工知能(AI)モデルの集中トレーニングは、効率性とプライバシの課題に直面している。
近年,フェデレーテッド・ラーニング (FL) が代替ソリューションとして登場し,新たな現実に発展し続けている。
既存のFLプロトコルの設計は、システム内外の敵に対して脆弱であり、データのプライバシとシステムの堅牢性を損なうことが示されている。
強力なグローバルモデルのトレーニングに加えて、プライバシー保証を持ち、さまざまな種類の敵に耐性を持つFLシステムを設計することが最重要となる。
本稿では,本トピックに関する初の総合的な調査を行う。
1)脅威モデル,2)ロバスト性に対する毒殺攻撃と防御,3)プライバシに対する推論攻撃と防御などを通じて、我々はこの重要なトピックについて、アクセス可能なレビューを提供する。
我々は、様々な攻撃や防御によって採用される基本的な前提だけでなく、直感や鍵となる技術も強調する。
最後に,堅牢でプライバシーを保った連合学習に向けた今後の研究の方向性について述べる。
関連論文リスト
- FEDLAD: Federated Evaluation of Deep Leakage Attacks and Defenses [50.921333548391345]
フェデレーテッド・ラーニング(Federated Learning)は、分散型機械学習パラダイムをプライバシ保護するものだ。
近年の研究では、Deep Leakageと呼ばれる勾配技術によって、民間の真実データを復元できることが判明している。
本稿では、Deep Leakage攻撃と防御を評価するための総合的なベンチマークであるFEDLAD Framework(Federated Evaluation of Deep Leakage Attacks and Defenses)を紹介する。
論文 参考訳(メタデータ) (2024-11-05T11:42:26Z) - Trustworthy Federated Learning: Privacy, Security, and Beyond [37.495790989584584]
Federated Learning (FL)は、生データを転送することなく、分散データソース間で協調的なモデルトレーニングを促進することで、問題に対処する。
FLが抱えるセキュリティとプライバシに関する広範な調査を行い、通信リンクの脆弱性とサイバー脅威の可能性を明らかにします。
FLフレームワーク内で発生する複雑なセキュリティ課題を特定し、セキュアで効率的なFLシステムの開発に寄与することを目的としている。
論文 参考訳(メタデータ) (2024-11-03T14:18:01Z) - Federated Learning Privacy: Attacks, Defenses, Applications, and Policy Landscape - A Survey [27.859861825159342]
ディープラーニングは、さまざまなタスクにおいて、信じられないほど大きな可能性を秘めている。
プライバシーに関する最近の懸念は、そのようなデータにアクセスする際の課題をさらに強調している。
フェデレーション学習は重要なプライバシー保護技術として登場した。
論文 参考訳(メタデータ) (2024-05-06T16:55:20Z) - A Survey of Federated Unlearning: A Taxonomy, Challenges and Future
Directions [71.16718184611673]
プライバシ保護のためのフェデレートラーニング(FL)の進化により、忘れられる権利を実装する必要性が高まっている。
選択的な忘れ方の実装は、その分散した性質のため、FLでは特に困難である。
Federated Unlearning(FU)は、データプライバシの必要性の増加に対応する戦略的ソリューションとして登場した。
論文 参考訳(メタデータ) (2023-10-30T01:34:33Z) - Privacy and Fairness in Federated Learning: on the Perspective of
Trade-off [58.204074436129716]
フェデレートラーニング(FL)は近年ホットな話題となっている。
2つの重要な倫理的概念として、プライバシと公平性の相互作用は比較的研究されていない。
論文 参考訳(メタデータ) (2023-06-25T04:38:19Z) - A Survey of Trustworthy Federated Learning with Perspectives on
Security, Robustness, and Privacy [47.89042524852868]
Federated Learning (FL) は,さまざまな現実のシナリオに対して,有望なソリューションとして注目されている。
しかし、データの分離とプライバシーに関する課題は、FLシステムの信頼性を脅かす。
論文 参考訳(メタデータ) (2023-02-21T12:52:12Z) - Federated Learning Attacks and Defenses: A Survey [6.980116513609015]
本稿では,現在のFLシステムの攻撃と対応する防御を系統的に分類する。
現在の3つの分類基準、すなわち機械学習の3つの段階、フェデレーション学習における3つの異なる役割、およびプライバシ保護に関するCIAのガイドラインの観点から、我々は、機械学習のトレーニング段階と予測段階に応じて、攻撃アプローチを2つのカテゴリに分割する。
論文 参考訳(メタデータ) (2022-11-27T22:07:07Z) - 10 Security and Privacy Problems in Large Foundation Models [69.70602220716718]
事前トレーニングされたファンデーションモデルは、AIエコシステムの'オペレーティングシステム'のようなものです。
事前訓練されたファンデーションモデルのセキュリティやプライバシの問題は、AIエコシステムの単一障害点につながる。
本章では、事前訓練された基礎モデルのセキュリティとプライバシに関する10の基本的な問題について論じる。
論文 参考訳(メタデータ) (2021-10-28T21:45:53Z) - Threats to Federated Learning: A Survey [35.724483191921244]
フェデレーテッド・ラーニング(FL)は、この新しい現実の下で有望なソリューションとして登場した。
既存のFLプロトコルの設計は、敵に悪用される脆弱性を示すことが示されている。
本稿では、FLの概念を簡潔に紹介し、脅威モデルをカバーするユニークな分類法と、FLに対する2つの主要な攻撃について述べる。
論文 参考訳(メタデータ) (2020-03-04T15:30:10Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。