論文の概要: Refiner: Data Refining against Gradient Leakage Attacks in Federated
Learning
- arxiv url: http://arxiv.org/abs/2212.02042v2
- Date: Mon, 16 Oct 2023 12:34:23 GMT
- ステータス: 処理完了
- システム内更新日: 2023-10-18 06:29:39.043554
- Title: Refiner: Data Refining against Gradient Leakage Attacks in Federated
Learning
- Title(参考訳): refiner: フェデレート学習における勾配漏洩攻撃に対するデータ精錬
- Authors: Mingyuan Fan, Cen Chen, Chengyu Wang, Xiaodan Li, Wenmeng Zhou, Jun
Huang
- Abstract要約: グラデーションリーク攻撃は クライアントのアップロードした勾配を利用して 機密データを再構築する
本稿では,従来の勾配摂動から分離した新しい防御パラダイムについて検討する。
プライバシ保護とパフォーマンス維持のための2つのメトリクスを共同で最適化するRefinerを設計する。
- 参考スコア(独自算出の注目度): 28.76786159247595
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Recent works have brought attention to the vulnerability of Federated
Learning (FL) systems to gradient leakage attacks. Such attacks exploit
clients' uploaded gradients to reconstruct their sensitive data, thereby
compromising the privacy protection capability of FL. In response, various
defense mechanisms have been proposed to mitigate this threat by manipulating
the uploaded gradients. Unfortunately, empirical evaluations have demonstrated
limited resilience of these defenses against sophisticated attacks, indicating
an urgent need for more effective defenses. In this paper, we explore a novel
defensive paradigm that departs from conventional gradient perturbation
approaches and instead focuses on the construction of robust data. Intuitively,
if robust data exhibits low semantic similarity with clients' raw data, the
gradients associated with robust data can effectively obfuscate attackers. To
this end, we design Refiner that jointly optimizes two metrics for privacy
protection and performance maintenance. The utility metric is designed to
promote consistency between the gradients of key parameters associated with
robust data and those derived from clients' data, thus maintaining model
performance. Furthermore, the privacy metric guides the generation of robust
data towards enlarging the semantic gap with clients' data. Theoretical
analysis supports the effectiveness of Refiner, and empirical evaluations on
multiple benchmark datasets demonstrate the superior defense effectiveness of
Refiner at defending against state-of-the-art attacks.
- Abstract(参考訳): 最近の研究は、勾配漏洩攻撃に対する連合学習(fl)システムの脆弱性に注意を向けている。
このような攻撃は、クライアントがアップロードした勾配を利用して機密データを再構築し、FLのプライバシー保護能力を損なう。
これに対し、アップロードされた勾配を操作することで脅威を軽減する様々な防御機構が提案されている。
残念なことに、実証的な評価は、これらの防御が高度な攻撃に対して限られた弾力性を示しており、より効果的な防御が必要であることを示している。
本稿では,従来の勾配摂動アプローチを離れて,ロバストなデータの構築に重点を置く,新たな防御パラダイムについて検討する。
直感的には、ロバストデータとクライアントの生データとのセマンティックな類似性が低い場合、ロバストデータに関連する勾配は攻撃者を効果的に難なくすることができる。
この目的のために、プライバシ保護とパフォーマンス維持のための2つのメトリクスを共同で最適化するRefinerを設計する。
ユーティリティメトリックは、ロバストデータに関連する重要なパラメータの勾配と、クライアントのデータから派生したパラメータとの一貫性を促進するように設計されている。
さらに、プライバシー基準は、クライアントのデータとのセマンティックギャップを拡大するための堅牢なデータの生成を導く。
理論的解析はRefinerの有効性を支持し、複数のベンチマークデータセットに対する経験的評価はRefinerの最先端攻撃に対する防御効果が優れていることを示す。
関連論文リスト
- FEDLAD: Federated Evaluation of Deep Leakage Attacks and Defenses [50.921333548391345]
フェデレーテッド・ラーニング(Federated Learning)は、分散型機械学習パラダイムをプライバシ保護するものだ。
近年の研究では、Deep Leakageと呼ばれる勾配技術によって、民間の真実データを復元できることが判明している。
本稿では、Deep Leakage攻撃と防御を評価するための総合的なベンチマークであるFEDLAD Framework(Federated Evaluation of Deep Leakage Attacks and Defenses)を紹介する。
論文 参考訳(メタデータ) (2024-11-05T11:42:26Z) - A Theoretical Insight into Attack and Defense of Gradient Leakage in
Transformer [11.770915202449517]
グラディエント(DLG)攻撃によるDeep Leakageは、交換勾配を検査してセンシティブなトレーニングデータを抽出する方法として、広く普及している。
本研究は, 変圧器モデルに特に適用した場合の勾配漏洩法を包括的に解析する。
論文 参考訳(メタデータ) (2023-11-22T09:58:01Z) - Avoid Adversarial Adaption in Federated Learning by Multi-Metric
Investigations [55.2480439325792]
Federated Learning(FL)は、分散機械学習モデルのトレーニング、データのプライバシの保護、通信コストの低減、多様化したデータソースによるモデルパフォーマンスの向上を支援する。
FLは、中毒攻撃、標的外のパフォーマンス劣化とターゲットのバックドア攻撃の両方でモデルの整合性を損なうような脆弱性に直面している。
我々は、複数の目的に同時に適応できる、強い適応的敵の概念を新たに定義する。
MESASは、実際のデータシナリオで有効であり、平均オーバーヘッドは24.37秒である。
論文 参考訳(メタデータ) (2023-06-06T11:44:42Z) - Re-thinking Data Availablity Attacks Against Deep Neural Networks [53.64624167867274]
本稿では、未学習例の概念を再検討し、既存のロバストな誤り最小化ノイズが不正確な最適化目標であることを示す。
本稿では,計算時間要件の低減による保護性能の向上を図った新しい最適化パラダイムを提案する。
論文 参考訳(メタデータ) (2023-05-18T04:03:51Z) - FLIP: A Provable Defense Framework for Backdoor Mitigation in Federated
Learning [66.56240101249803]
我々は,クライアントの強固化がグローバルモデル(および悪意のあるクライアント)に与える影響について検討する。
本稿では, 逆エンジニアリングによる防御手法を提案するとともに, 堅牢性を保証して, 改良を実現できることを示す。
競合する8つのSOTA防御法について, 単発および連続のFLバックドア攻撃に対して, 提案手法の実証的優位性を示した。
論文 参考訳(メタデータ) (2022-10-23T22:24:03Z) - Learning to Invert: Simple Adaptive Attacks for Gradient Inversion in
Federated Learning [31.374376311614675]
グラディエント・インバージョン・アタックは、フェデレート学習におけるモデル勾配からのトレーニングサンプルの回復を可能にする。
既存の防御は、単純な適応攻撃によって破壊される可能性があることを示す。
論文 参考訳(メタデータ) (2022-10-19T20:41:30Z) - Concealing Sensitive Samples against Gradient Leakage in Federated
Learning [41.43099791763444]
Federated Learning(FL)は、クライアントが生のプライベートデータをサーバと共有する必要をなくし、ユーザのプライバシを高める分散学習パラダイムである。
近年の研究では、FLの脆弱性が逆攻撃のモデルとなり、敵は共有勾配情報に基づく盗聴によって個人データを再構築している。
我々は,機密データの勾配を隠蔽標本で曖昧にする,シンプルで効果的な防衛戦略を提案する。
論文 参考訳(メタデータ) (2022-09-13T04:19:35Z) - Dropout is NOT All You Need to Prevent Gradient Leakage [0.6021787236982659]
反復的勾配反転攻撃に対するドロップアウトの影響を解析する。
本稿では,クライアントデータとドロップアウトマスクを協調的に最適化する新しいインバージョンアタック(DIA)を提案する。
提案した攻撃は, 投棄によって引き起こされると思われる保護を回避し, 高い忠実度でクライアントデータを再構築する。
論文 参考訳(メタデータ) (2022-08-12T08:29:44Z) - Defense Against Gradient Leakage Attacks via Learning to Obscure Data [48.67836599050032]
フェデレートラーニングは、効果的なプライバシー保護学習メカニズムと考えられている。
本稿では,不明瞭なデータに学習することで,クライアントのデータ保護のための新しい防御手法を提案する。
論文 参考訳(メタデータ) (2022-06-01T21:03:28Z) - Do Gradient Inversion Attacks Make Federated Learning Unsafe? [70.0231254112197]
フェデレートラーニング(FL)は、生データを共有することなく、AIモデルの協調トレーニングを可能にする。
モデル勾配からのディープニューラルネットワークの反転に関する最近の研究は、トレーニングデータの漏洩を防止するためのFLの安全性に関する懸念を提起した。
本研究では,本論文で提示されたこれらの攻撃が実際のFLユースケースでは実行不可能であることを示し,新たなベースライン攻撃を提供する。
論文 参考訳(メタデータ) (2022-02-14T18:33:12Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。