論文の概要: An Overview of Federated Deep Learning Privacy Attacks and Defensive
Strategies
- arxiv url: http://arxiv.org/abs/2004.04676v1
- Date: Wed, 1 Apr 2020 12:41:45 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-17 18:38:04.650881
- Title: An Overview of Federated Deep Learning Privacy Attacks and Defensive
Strategies
- Title(参考訳): 連合型ディープラーニングによるプライバシ攻撃と防御戦略の概要
- Authors: David Enthoven and Zaid Al-Ars
- Abstract要約: 協調機械学習(ML)アルゴリズムは、処理に使用されるプライベートデータの保護を保証するために開発されている。
フェデレートラーニング(Federated Learning, FL)は、これらの手法の中で最も一般的な方法である。
最近の研究によると、そのようなモデル更新は依然として個人情報をリークする可能性がある。
- 参考スコア(独自算出の注目度): 1.370633147306388
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: With the increased attention and legislation for data-privacy, collaborative
machine learning (ML) algorithms are being developed to ensure the protection
of private data used for processing. Federated learning (FL) is the most
popular of these methods, which provides privacy preservation by facilitating
collaborative training of a shared model without the need to exchange any
private data with a centralized server. Rather, an abstraction of the data in
the form of a machine learning model update is sent. Recent studies showed that
such model updates may still very well leak private information and thus more
structured risk assessment is needed. In this paper, we analyze existing
vulnerabilities of FL and subsequently perform a literature review of the
possible attack methods targetingFL privacy protection capabilities. These
attack methods are then categorized by a basic taxonomy. Additionally, we
provide a literature study of the most recent defensive strategies and
algorithms for FL aimed to overcome these attacks. These defensive strategies
are categorized by their respective underlying defence principle. The paper
concludes that the application of a single defensive strategy is not enough to
provide adequate protection to all available attack methods.
- Abstract(参考訳): データプライバシに対する注意と規制の高まりに伴い、コラボレーティブ機械学習(ML)アルゴリズムは、処理に使用されるプライベートデータの保護を保証するために開発されている。
フェデレートラーニング(FL)は,共有モデルの協調トレーニングを容易にすることで,集中型サーバとプライベートデータを交換することなく,プライバシ保護を実現する手法として最も一般的な方法である。
むしろ、機械学習モデルの更新という形でデータの抽象化が送信される。
最近の研究によると、そのようなモデル更新は依然として非常によく個人情報を漏らす可能性があるため、より構造化されたリスク評価が必要である。
本稿では,flの既存脆弱性を分析し,flプライバシ保護機能を対象とした攻撃手法について文献レビューを行う。
これらの攻撃方法は基本分類法によって分類される。
さらに,これらの攻撃を克服しようとするflの最近の防御戦略とアルゴリズムについて文献的研究を行った。
これらの防衛戦略は、それぞれの防御原則によって分類される。
本論文は, 単一防御戦略の適用は, 全ての攻撃方法に対して適切な保護を提供するには不十分である,と結論づける。
関連論文リスト
- Robust Federated Learning Mitigates Client-side Training Data
Distribution Inference Attacks [53.210725411547806]
InferGuardは、クライアント側のトレーニングデータ分散推論攻撃に対する防御を目的とした、新しいビザンチン・ロバスト集約ルールである。
実験の結果,我々の防衛機構はクライアント側のトレーニングデータ分布推定攻撃に対する防御に極めて有効であることが示唆された。
論文 参考訳(メタデータ) (2024-03-05T17:41:35Z) - A Survey on Vulnerability of Federated Learning: A Learning Algorithm
Perspective [8.941193384980147]
FLシステムの学習プロセスを対象とした脅威モデルに焦点を当てる。
防衛戦略は、特定のメトリクスを使用して悪意のあるクライアントを除外することから進化してきた。
最近の取り組みは、ローカルモデルの最小限の重みを、防御措置をバイパスするために微妙に変更している。
論文 参考訳(メタデータ) (2023-11-27T18:32:08Z) - Towards Attack-tolerant Federated Learning via Critical Parameter
Analysis [85.41873993551332]
フェデレートされた学習システムは、悪意のあるクライアントが中央サーバーに誤ったアップデートを送信すると、攻撃を害するおそれがある。
本稿では,新たな防衛戦略であるFedCPA(Federated Learning with critical Analysis)を提案する。
攻撃耐性凝集法は, 有害局所モデルでは有毒局所モデルでは有毒局所モデルでは有毒局所モデルでは有毒局所モデルでは有毒局所モデルでは有毒局所モデルでは有毒であるのに対し, 類似したトップkおよびボトムk臨界パラメータを持つ。
論文 参考訳(メタデータ) (2023-08-18T05:37:55Z) - Deep Leakage from Model in Federated Learning [6.001369927772649]
モデル重みの伝達がクライアントのプライベートなローカルデータをリークする可能性を示す2つの新しいフレームワークを提案する。
また,提案攻撃に対する防御策を2つ導入し,その防御効果を評価した。
論文 参考訳(メタデータ) (2022-06-10T05:56:00Z) - Defense Against Gradient Leakage Attacks via Learning to Obscure Data [48.67836599050032]
フェデレートラーニングは、効果的なプライバシー保護学習メカニズムと考えられている。
本稿では,不明瞭なデータに学習することで,クライアントのデータ保護のための新しい防御手法を提案する。
論文 参考訳(メタデータ) (2022-06-01T21:03:28Z) - Do Gradient Inversion Attacks Make Federated Learning Unsafe? [70.0231254112197]
フェデレートラーニング(FL)は、生データを共有することなく、AIモデルの協調トレーニングを可能にする。
モデル勾配からのディープニューラルネットワークの反転に関する最近の研究は、トレーニングデータの漏洩を防止するためのFLの安全性に関する懸念を提起した。
本研究では,本論文で提示されたこれらの攻撃が実際のFLユースケースでは実行不可能であることを示し,新たなベースライン攻撃を提供する。
論文 参考訳(メタデータ) (2022-02-14T18:33:12Z) - Survey on Federated Learning Threats: concepts, taxonomy on attacks and
defences, experimental study and challenges [10.177219272933781]
フェデレーション・ラーニング(Federated Learning)は、人工知能におけるプライバシ保護要求の解決策として現れる機械学習パラダイムである。
機械学習として、フェデレートされた学習は、学習モデルの完全性とデータのプライバシに対する敵対的な攻撃によって、ローカルおよびグローバルな学習に取り組むための分散アプローチによって脅かされる。
論文 参考訳(メタデータ) (2022-01-20T12:23:03Z) - Challenges and approaches for mitigating byzantine attacks in federated
learning [6.836162272841266]
フェデレーテッド・ラーニング(FL)は、多くの無線エンドユーザーデバイスがデータを使いながらグローバルモデルをトレーニングできる、魅力的な分散学習フレームワークである。
将来性はあるものの、従来の分散ネットワークの難易度の高い脅威であるビザンチン攻撃はFLにも有効であることが判明した。
そこで我々は,これらの防御策を打ち破り,その脅威を実証するための実験を行うために,重み攻撃と呼ばれる新たなビザンチン攻撃法を提案する。
論文 参考訳(メタデータ) (2021-12-29T09:24:05Z) - Meta Federated Learning [57.52103907134841]
フェデレートラーニング(FL)は、時間的敵攻撃の訓練に弱い。
本稿では,メタフェデレーション学習(Meta Federated Learning, Meta-FL)を提案する。
論文 参考訳(メタデータ) (2021-02-10T16:48:32Z) - Privacy and Robustness in Federated Learning: Attacks and Defenses [74.62641494122988]
このトピックに関する最初の包括的な調査を実施します。
FLの概念の簡潔な紹介と、1脅威モデル、2堅牢性に対する中毒攻撃と防御、3プライバシーに対する推論攻撃と防御、というユニークな分類学を通じて、私たちはこの重要なトピックのアクセス可能なレビューを提供します。
論文 参考訳(メタデータ) (2020-12-07T12:11:45Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。