論文の概要: Learning to Invert: Simple Adaptive Attacks for Gradient Inversion in
Federated Learning
- arxiv url: http://arxiv.org/abs/2210.10880v1
- Date: Wed, 19 Oct 2022 20:41:30 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-21 16:02:01.315965
- Title: Learning to Invert: Simple Adaptive Attacks for Gradient Inversion in
Federated Learning
- Title(参考訳): インバータへの学習:フェデレーション学習における勾配インバージョンに対する単純な適応攻撃
- Authors: Ruihan Wu, Xiangyu Chen, Chuan Guo, Kilian Q. Weinberger
- Abstract要約: グラディエント・インバージョン・アタックは、フェデレート学習におけるモデル更新からトレーニングサンプルのリカバリを可能にする。
既存の防御は、補助データを用いてモデルを訓練する単純な適応攻撃によって破壊される可能性があることを示す。
- 参考スコア(独自算出の注目度): 31.374376311614675
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Gradient inversion attack enables recovery of training samples from model
updates in federated learning (FL) and constitutes a serious threat to data
privacy. To mitigate this vulnerability, prior work proposed both principled
defenses based on differential privacy, as well as heuristic defenses based on
gradient compression as countermeasures. These defenses have so far been very
effective, in particular those based on gradient compression that allow the
model to maintain high accuracy while greatly reducing the attack's
effectiveness. In this work, we argue that such findings do not accurately
reflect the privacy risk in FL, and show that existing defenses can be broken
by a simple adaptive attack that trains a model using auxiliary data to learn
how to invert gradients on both vision and language tasks.
- Abstract(参考訳): 勾配反転攻撃(gradient inversion attack)は、フェデレーション学習(fl)におけるモデル更新からのトレーニングサンプルのリカバリを可能にし、データプライバシに対する深刻な脅威となる。
この脆弱性を軽減するため、先行研究は差分プライバシーに基づく原則防御と、勾配圧縮に基づくヒューリスティック防御の両方を対策として提案した。
これらの防御は、これまで非常に効果的であり、特に勾配圧縮に基づくもので、モデルが高い精度を維持しつつ攻撃の有効性を大幅に減らすことができる。
本研究では,FLのプライバシーリスクを正確に反映するものではなく,補助データを用いてモデルを訓練し,視覚と言語の両方のタスクの勾配を逆転させる単純な適応攻撃によって,既存の防御が破られることを示す。
関連論文リスト
- GI-SMN: Gradient Inversion Attack against Federated Learning without Prior Knowledge [4.839514405631815]
フェデレートラーニング(FL)は、プライバシ保護機械学習アプローチとして登場した。
勾配反転攻撃はFLの勾配を利用して元のユーザデータを再現する。
スタイルマイグレーションネットワーク(GI-SMN)に基づく新しいグラディエント・インバージョン・アタックを提案する。
論文 参考訳(メタデータ) (2024-05-06T14:29:24Z) - Unlearning Backdoor Threats: Enhancing Backdoor Defense in Multimodal Contrastive Learning via Local Token Unlearning [49.242828934501986]
マルチモーダルコントラスト学習は高品質な機能を構築するための強力なパラダイムとして登場した。
バックドア攻撃は 訓練中に モデルに 悪意ある行動を埋め込む
我々は,革新的なトークンベースの局所的忘れ忘れ学習システムを導入する。
論文 参考訳(メタデータ) (2024-03-24T18:33:15Z) - OASIS: Offsetting Active Reconstruction Attacks in Federated Learning [14.644814818768172]
Federated Learning(FL)は、ユーザプライバシ保護の可能性に関して、大きな注目を集めている。
近年の研究では、FLプロトコルがアクティブリコンストラクションアタックによって容易に損なわれることが示されている。
本稿では,画像拡張に基づく防御機構を提案し,能動的再建攻撃を効果的に防止する。
論文 参考訳(メタデータ) (2023-11-23T00:05:17Z) - BadCLIP: Dual-Embedding Guided Backdoor Attack on Multimodal Contrastive
Learning [85.2564206440109]
本報告では,防衛後においてもバックドア攻撃が有効であり続けるという現実的なシナリオにおける脅威を明らかにする。
バックドア検出や細調整防御のモデル化に抵抗性のあるemphtoolnsアタックを導入する。
論文 参考訳(メタデータ) (2023-11-20T02:21:49Z) - Refiner: Data Refining against Gradient Leakage Attacks in Federated
Learning [28.76786159247595]
グラデーションリーク攻撃は クライアントのアップロードした勾配を利用して 機密データを再構築する
本稿では,従来の勾配摂動から分離した新しい防御パラダイムについて検討する。
プライバシ保護とパフォーマンス維持のための2つのメトリクスを共同で最適化するRefinerを設計する。
論文 参考訳(メタデータ) (2022-12-05T05:36:15Z) - FLIP: A Provable Defense Framework for Backdoor Mitigation in Federated
Learning [66.56240101249803]
我々は,クライアントの強固化がグローバルモデル(および悪意のあるクライアント)に与える影響について検討する。
本稿では, 逆エンジニアリングによる防御手法を提案するとともに, 堅牢性を保証して, 改良を実現できることを示す。
競合する8つのSOTA防御法について, 単発および連続のFLバックドア攻撃に対して, 提案手法の実証的優位性を示した。
論文 参考訳(メタデータ) (2022-10-23T22:24:03Z) - Defense Against Gradient Leakage Attacks via Learning to Obscure Data [48.67836599050032]
フェデレートラーニングは、効果的なプライバシー保護学習メカニズムと考えられている。
本稿では,不明瞭なデータに学習することで,クライアントのデータ保護のための新しい防御手法を提案する。
論文 参考訳(メタデータ) (2022-06-01T21:03:28Z) - Do Gradient Inversion Attacks Make Federated Learning Unsafe? [70.0231254112197]
フェデレートラーニング(FL)は、生データを共有することなく、AIモデルの協調トレーニングを可能にする。
モデル勾配からのディープニューラルネットワークの反転に関する最近の研究は、トレーニングデータの漏洩を防止するためのFLの安全性に関する懸念を提起した。
本研究では,本論文で提示されたこれらの攻撃が実際のFLユースケースでは実行不可能であることを示し,新たなベースライン攻撃を提供する。
論文 参考訳(メタデータ) (2022-02-14T18:33:12Z) - Evaluating Gradient Inversion Attacks and Defenses in Federated Learning [43.993693910541275]
本稿では,既存の攻撃と,勾配反転攻撃に対する防御について検討する。
提案する3つの防御機構のプライバシー漏洩とデータユーティリティのトレードオフを示す。
我々の研究結果は、現在最先端の攻撃は、小さなデータユーティリティー損失で防御可能であることを示唆している。
論文 参考訳(メタデータ) (2021-11-30T19:34:16Z) - Curse or Redemption? How Data Heterogeneity Affects the Robustness of
Federated Learning [51.15273664903583]
データの不均一性は、フェデレートラーニングにおける重要な特徴の1つとして認識されているが、しばしば敵対的攻撃に対する堅牢性のレンズで見過ごされる。
本稿では, 複合学習におけるバックドア攻撃の影響を, 総合的な実験を通じて評価し, 理解することを目的とした。
論文 参考訳(メタデータ) (2021-02-01T06:06:21Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。