論文の概要: Refiner: Data Refining against Gradient Leakage Attacks in Federated
Learning
- arxiv url: http://arxiv.org/abs/2212.02042v1
- Date: Mon, 5 Dec 2022 05:36:15 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-06 19:11:56.382747
- Title: Refiner: Data Refining against Gradient Leakage Attacks in Federated
Learning
- Title(参考訳): refiner: フェデレート学習における勾配漏洩攻撃に対するデータ精錬
- Authors: Mingyuan Fan, Cen Chen, Chengyu Wang, Wenmeng Zhou, Jun Huang, Ximeng
Liu, Wenzhong Guo
- Abstract要約: Federated Learning(FL)は、プライバシを重視したIoT環境で広く利用されている。
FLはデータの代わりに勾配のあるモデルをトレーニングすることで、プライバシリークを回避する。
我々はRefinerと呼ばれる新しい防衛法を提案し、堅牢なデータを構築するために地道データを洗練する。
- 参考スコア(独自算出の注目度): 35.72776345204066
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Federated Learning (FL) is pervasive in privacy-focused IoT environments
since it enables avoiding privacy leakage by training models with gradients
instead of data. Recent works show the uploaded gradients can be employed to
reconstruct data, i.e., gradient leakage attacks, and several defenses are
designed to alleviate the risk by tweaking the gradients. However, these
defenses exhibit weak resilience against threatening attacks, as the
effectiveness builds upon the unrealistic assumptions that deep neural networks
are simplified as linear models. In this paper, without such unrealistic
assumptions, we present a novel defense, called Refiner, instead of perturbing
gradients, which refines ground-truth data to craft robust data that yields
sufficient utility but with the least amount of privacy information, and then
the gradients of robust data are uploaded. To craft robust data, Refiner
promotes the gradients of critical parameters associated with robust data to
close ground-truth ones while leaving the gradients of trivial parameters to
safeguard privacy. Moreover, to exploit the gradients of trivial parameters,
Refiner utilizes a well-designed evaluation network to steer robust data far
away from ground-truth data, thereby alleviating privacy leakage risk.
Extensive experiments across multiple benchmark datasets demonstrate the
superior defense effectiveness of Refiner at defending against state-of-the-art
threats.
- Abstract(参考訳): フェデレートラーニング(FL)は、データの代わりに勾配のモデルをトレーニングすることで、プライバシリークを回避することができるため、プライバシ重視のIoT環境において広く普及している。
近年の研究では、アップロードされた勾配を使ってデータ、すなわち勾配漏洩攻撃を再構築できることが示されている。
しかし、これらの防御効果は、ディープニューラルネットワークが線形モデルとして単純化されるという非現実的な仮定に基づくため、脅威攻撃に対する弱い耐性を示す。
本稿では,そのような非現実的な仮定を伴わずに,十分な実用性を持つがプライバシー情報が少ない頑健なデータを作成するために,地中データを精錬するグラデーションを摂動させる代わりに,refinerと呼ばれる新たな防御手法を提案する。
堅牢なデータを構築するためにRefinerは、ロバストなデータに関連する臨界パラメータの勾配を、プライバシーを守るために自明なパラメータの勾配を残しながら、地道なデータに近づける。
さらに、自明なパラメータの勾配を利用するために、Refinerはよく設計された評価ネットワークを使用して、堅牢なデータを地上データから遠ざけ、プライバシー漏洩のリスクを軽減する。
複数のベンチマークデータセットにわたる大規模な実験は、最先端の脅威に対する防御において、Refinerの優れた防御効果を示している。
関連論文リスト
- FEDLAD: Federated Evaluation of Deep Leakage Attacks and Defenses [50.921333548391345]
フェデレーテッド・ラーニング(Federated Learning)は、分散型機械学習パラダイムをプライバシ保護するものだ。
近年の研究では、Deep Leakageと呼ばれる勾配技術によって、民間の真実データを復元できることが判明している。
本稿では、Deep Leakage攻撃と防御を評価するための総合的なベンチマークであるFEDLAD Framework(Federated Evaluation of Deep Leakage Attacks and Defenses)を紹介する。
論文 参考訳(メタデータ) (2024-11-05T11:42:26Z) - A Theoretical Insight into Attack and Defense of Gradient Leakage in
Transformer [11.770915202449517]
グラディエント(DLG)攻撃によるDeep Leakageは、交換勾配を検査してセンシティブなトレーニングデータを抽出する方法として、広く普及している。
本研究は, 変圧器モデルに特に適用した場合の勾配漏洩法を包括的に解析する。
論文 参考訳(メタデータ) (2023-11-22T09:58:01Z) - Avoid Adversarial Adaption in Federated Learning by Multi-Metric
Investigations [55.2480439325792]
Federated Learning(FL)は、分散機械学習モデルのトレーニング、データのプライバシの保護、通信コストの低減、多様化したデータソースによるモデルパフォーマンスの向上を支援する。
FLは、中毒攻撃、標的外のパフォーマンス劣化とターゲットのバックドア攻撃の両方でモデルの整合性を損なうような脆弱性に直面している。
我々は、複数の目的に同時に適応できる、強い適応的敵の概念を新たに定義する。
MESASは、実際のデータシナリオで有効であり、平均オーバーヘッドは24.37秒である。
論文 参考訳(メタデータ) (2023-06-06T11:44:42Z) - Re-thinking Data Availablity Attacks Against Deep Neural Networks [53.64624167867274]
本稿では、未学習例の概念を再検討し、既存のロバストな誤り最小化ノイズが不正確な最適化目標であることを示す。
本稿では,計算時間要件の低減による保護性能の向上を図った新しい最適化パラダイムを提案する。
論文 参考訳(メタデータ) (2023-05-18T04:03:51Z) - FLIP: A Provable Defense Framework for Backdoor Mitigation in Federated
Learning [66.56240101249803]
我々は,クライアントの強固化がグローバルモデル(および悪意のあるクライアント)に与える影響について検討する。
本稿では, 逆エンジニアリングによる防御手法を提案するとともに, 堅牢性を保証して, 改良を実現できることを示す。
競合する8つのSOTA防御法について, 単発および連続のFLバックドア攻撃に対して, 提案手法の実証的優位性を示した。
論文 参考訳(メタデータ) (2022-10-23T22:24:03Z) - Learning to Invert: Simple Adaptive Attacks for Gradient Inversion in
Federated Learning [31.374376311614675]
グラディエント・インバージョン・アタックは、フェデレート学習におけるモデル勾配からのトレーニングサンプルの回復を可能にする。
既存の防御は、単純な適応攻撃によって破壊される可能性があることを示す。
論文 参考訳(メタデータ) (2022-10-19T20:41:30Z) - Concealing Sensitive Samples against Gradient Leakage in Federated
Learning [41.43099791763444]
Federated Learning(FL)は、クライアントが生のプライベートデータをサーバと共有する必要をなくし、ユーザのプライバシを高める分散学習パラダイムである。
近年の研究では、FLの脆弱性が逆攻撃のモデルとなり、敵は共有勾配情報に基づく盗聴によって個人データを再構築している。
我々は,機密データの勾配を隠蔽標本で曖昧にする,シンプルで効果的な防衛戦略を提案する。
論文 参考訳(メタデータ) (2022-09-13T04:19:35Z) - Dropout is NOT All You Need to Prevent Gradient Leakage [0.6021787236982659]
反復的勾配反転攻撃に対するドロップアウトの影響を解析する。
本稿では,クライアントデータとドロップアウトマスクを協調的に最適化する新しいインバージョンアタック(DIA)を提案する。
提案した攻撃は, 投棄によって引き起こされると思われる保護を回避し, 高い忠実度でクライアントデータを再構築する。
論文 参考訳(メタデータ) (2022-08-12T08:29:44Z) - Defense Against Gradient Leakage Attacks via Learning to Obscure Data [48.67836599050032]
フェデレートラーニングは、効果的なプライバシー保護学習メカニズムと考えられている。
本稿では,不明瞭なデータに学習することで,クライアントのデータ保護のための新しい防御手法を提案する。
論文 参考訳(メタデータ) (2022-06-01T21:03:28Z) - Do Gradient Inversion Attacks Make Federated Learning Unsafe? [70.0231254112197]
フェデレートラーニング(FL)は、生データを共有することなく、AIモデルの協調トレーニングを可能にする。
モデル勾配からのディープニューラルネットワークの反転に関する最近の研究は、トレーニングデータの漏洩を防止するためのFLの安全性に関する懸念を提起した。
本研究では,本論文で提示されたこれらの攻撃が実際のFLユースケースでは実行不可能であることを示し,新たなベースライン攻撃を提供する。
論文 参考訳(メタデータ) (2022-02-14T18:33:12Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。