論文の概要: An Overview of Federated Deep Learning Privacy Attacks and Defensive
Strategies
- arxiv url: http://arxiv.org/abs/2004.04676v1
- Date: Wed, 1 Apr 2020 12:41:45 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-17 18:38:04.650881
- Title: An Overview of Federated Deep Learning Privacy Attacks and Defensive
Strategies
- Title(参考訳): 連合型ディープラーニングによるプライバシ攻撃と防御戦略の概要
- Authors: David Enthoven and Zaid Al-Ars
- Abstract要約: 協調機械学習(ML)アルゴリズムは、処理に使用されるプライベートデータの保護を保証するために開発されている。
フェデレートラーニング(Federated Learning, FL)は、これらの手法の中で最も一般的な方法である。
最近の研究によると、そのようなモデル更新は依然として個人情報をリークする可能性がある。
- 参考スコア(独自算出の注目度): 1.370633147306388
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: With the increased attention and legislation for data-privacy, collaborative
machine learning (ML) algorithms are being developed to ensure the protection
of private data used for processing. Federated learning (FL) is the most
popular of these methods, which provides privacy preservation by facilitating
collaborative training of a shared model without the need to exchange any
private data with a centralized server. Rather, an abstraction of the data in
the form of a machine learning model update is sent. Recent studies showed that
such model updates may still very well leak private information and thus more
structured risk assessment is needed. In this paper, we analyze existing
vulnerabilities of FL and subsequently perform a literature review of the
possible attack methods targetingFL privacy protection capabilities. These
attack methods are then categorized by a basic taxonomy. Additionally, we
provide a literature study of the most recent defensive strategies and
algorithms for FL aimed to overcome these attacks. These defensive strategies
are categorized by their respective underlying defence principle. The paper
concludes that the application of a single defensive strategy is not enough to
provide adequate protection to all available attack methods.
- Abstract(参考訳): データプライバシに対する注意と規制の高まりに伴い、コラボレーティブ機械学習(ML)アルゴリズムは、処理に使用されるプライベートデータの保護を保証するために開発されている。
フェデレートラーニング(FL)は,共有モデルの協調トレーニングを容易にすることで,集中型サーバとプライベートデータを交換することなく,プライバシ保護を実現する手法として最も一般的な方法である。
むしろ、機械学習モデルの更新という形でデータの抽象化が送信される。
最近の研究によると、そのようなモデル更新は依然として非常によく個人情報を漏らす可能性があるため、より構造化されたリスク評価が必要である。
本稿では,flの既存脆弱性を分析し,flプライバシ保護機能を対象とした攻撃手法について文献レビューを行う。
これらの攻撃方法は基本分類法によって分類される。
さらに,これらの攻撃を克服しようとするflの最近の防御戦略とアルゴリズムについて文献的研究を行った。
これらの防衛戦略は、それぞれの防御原則によって分類される。
本論文は, 単一防御戦略の適用は, 全ての攻撃方法に対して適切な保護を提供するには不十分である,と結論づける。
関連論文リスト
- Model Inversion Attacks: A Survey of Approaches and Countermeasures [59.986922963781]
近年、新しいタイプのプライバシ攻撃であるモデル反転攻撃(MIA)は、トレーニングのためのプライベートデータの機密性を抽出することを目的としている。
この重要性にもかかわらず、総合的な概要とMIAに関する深い洞察を提供する体系的な研究が欠如している。
本調査は、攻撃と防御の両方において、最新のMIA手法を要約することを目的としている。
論文 参考訳(メタデータ) (2024-11-15T08:09:28Z) - FEDLAD: Federated Evaluation of Deep Leakage Attacks and Defenses [50.921333548391345]
フェデレーテッド・ラーニング(Federated Learning)は、分散型機械学習パラダイムをプライバシ保護するものだ。
近年の研究では、Deep Leakageと呼ばれる勾配技術によって、民間の真実データを復元できることが判明している。
本稿では、Deep Leakage攻撃と防御を評価するための総合的なベンチマークであるFEDLAD Framework(Federated Evaluation of Deep Leakage Attacks and Defenses)を紹介する。
論文 参考訳(メタデータ) (2024-11-05T11:42:26Z) - Defending against Data Poisoning Attacks in Federated Learning via User Elimination [0.0]
本稿では,フェデレーションモデルにおける敵ユーザの戦略的排除に焦点を当てた,新たなフレームワークを提案する。
我々は、ローカルトレーニングインスタンスが収集したメタデータと差分プライバシー技術を統合することにより、フェデレートアルゴリズムのアグリゲーションフェーズにおける異常を検出する。
提案手法の有効性を実証し,ユーザのプライバシとモデル性能を維持しながらデータ汚染のリスクを大幅に軽減する。
論文 参考訳(メタデータ) (2024-04-19T10:36:00Z) - Privacy Backdoors: Enhancing Membership Inference through Poisoning Pre-trained Models [112.48136829374741]
本稿では、プライバシーバックドア攻撃という新たな脆弱性を明らかにします。
被害者がバックドアモデルに微調整を行った場合、トレーニングデータは通常のモデルに微調整された場合よりも大幅に高い速度でリークされる。
我々の発見は、機械学習コミュニティにおける重要なプライバシー上の懸念を浮き彫りにし、オープンソースの事前訓練モデルの使用における安全性プロトコルの再評価を求めている。
論文 参考訳(メタデータ) (2024-04-01T16:50:54Z) - A Survey on Vulnerability of Federated Learning: A Learning Algorithm
Perspective [8.941193384980147]
FLシステムの学習プロセスを対象とした脅威モデルに焦点を当てる。
防衛戦略は、特定のメトリクスを使用して悪意のあるクライアントを除外することから進化してきた。
最近の取り組みは、ローカルモデルの最小限の重みを、防御措置をバイパスするために微妙に変更している。
論文 参考訳(メタデータ) (2023-11-27T18:32:08Z) - Deep Leakage from Model in Federated Learning [6.001369927772649]
モデル重みの伝達がクライアントのプライベートなローカルデータをリークする可能性を示す2つの新しいフレームワークを提案する。
また,提案攻撃に対する防御策を2つ導入し,その防御効果を評価した。
論文 参考訳(メタデータ) (2022-06-10T05:56:00Z) - Defense Against Gradient Leakage Attacks via Learning to Obscure Data [48.67836599050032]
フェデレートラーニングは、効果的なプライバシー保護学習メカニズムと考えられている。
本稿では,不明瞭なデータに学習することで,クライアントのデータ保護のための新しい防御手法を提案する。
論文 参考訳(メタデータ) (2022-06-01T21:03:28Z) - Do Gradient Inversion Attacks Make Federated Learning Unsafe? [70.0231254112197]
フェデレートラーニング(FL)は、生データを共有することなく、AIモデルの協調トレーニングを可能にする。
モデル勾配からのディープニューラルネットワークの反転に関する最近の研究は、トレーニングデータの漏洩を防止するためのFLの安全性に関する懸念を提起した。
本研究では,本論文で提示されたこれらの攻撃が実際のFLユースケースでは実行不可能であることを示し,新たなベースライン攻撃を提供する。
論文 参考訳(メタデータ) (2022-02-14T18:33:12Z) - Privacy and Robustness in Federated Learning: Attacks and Defenses [74.62641494122988]
このトピックに関する最初の包括的な調査を実施します。
FLの概念の簡潔な紹介と、1脅威モデル、2堅牢性に対する中毒攻撃と防御、3プライバシーに対する推論攻撃と防御、というユニークな分類学を通じて、私たちはこの重要なトピックのアクセス可能なレビューを提供します。
論文 参考訳(メタデータ) (2020-12-07T12:11:45Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。