論文の概要: Defending against Reconstruction Attack in Vertical Federated Learning
- arxiv url: http://arxiv.org/abs/2107.09898v1
- Date: Wed, 21 Jul 2021 06:32:46 GMT
- ステータス: 処理完了
- システム内更新日: 2021-07-22 14:04:10.780324
- Title: Defending against Reconstruction Attack in Vertical Federated Learning
- Title(参考訳): 垂直連合学習における再構築攻撃に対する防御
- Authors: Jiankai Sun and Yuanshun Yao and Weihao Gao and Junyuan Xie and Chong
Wang
- Abstract要約: 近年、悪意ある者が共有勾配からユーザが提供するセンシティブなトレーニングインプットを再構築できるフェデレートラーニング(FL)において、入力リーク問題を研究している。
モデルユーティリティを維持しながら入力プライバシを保護するのに,我々のフレームワークが有効であることを示す。
- 参考スコア(独自算出の注目度): 25.182062654794812
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Recently researchers have studied input leakage problems in Federated
Learning (FL) where a malicious party can reconstruct sensitive training inputs
provided by users from shared gradient. It raises concerns about FL since input
leakage contradicts the privacy-preserving intention of using FL. Despite a
relatively rich literature on attacks and defenses of input reconstruction in
Horizontal FL, input leakage and protection in vertical FL starts to draw
researcher's attention recently. In this paper, we study how to defend against
input leakage attacks in Vertical FL. We design an adversarial training-based
framework that contains three modules: adversarial reconstruction, noise
regularization, and distance correlation minimization. Those modules can not
only be employed individually but also applied together since they are
independent to each other. Through extensive experiments on a large-scale
industrial online advertising dataset, we show our framework is effective in
protecting input privacy while retaining the model utility.
- Abstract(参考訳): 近年、悪意ある者が共有勾配からユーザが提供するセンシティブなトレーニング入力を再構築できるフェデレートラーニング(FL)における入力リーク問題の研究が行われている。
入力リークはFLを使用するプライバシー保護の意図と矛盾するため、FLに関する懸念を提起する。
水平flにおける入力再構成の防御と攻撃に関する比較的豊かな文献にもかかわらず、垂直flにおける入力リークと保護は近年研究者の注目を集め始めている。
本稿では,垂直FLにおける入力漏洩攻撃の防御方法について検討する。
我々は,3つのモジュールを含む,敵対的トレーニングに基づくフレームワークをデザインする。
これらのモジュールは個別に使用できるだけでなく、互いに独立しているため、一緒に適用することもできる。
大規模産業向けオンライン広告データセットの広範な実験を通じて、我々のフレームワークはモデルユーティリティを維持しながら入力プライバシーを保護するのに有効であることを示す。
関連論文リスト
- Non-Cooperative Backdoor Attacks in Federated Learning: A New Threat Landscape [7.00762739959285]
プライバシ保護モデルトレーニングのためのフェデレートラーニング(FL)は、バックドア攻撃の影響を受けやすいままである。
本研究は,発展途上のFL景観におけるバックドア攻撃に対する堅牢な防御の必要性を強調した。
論文 参考訳(メタデータ) (2024-07-05T22:03:13Z) - FreqFed: A Frequency Analysis-Based Approach for Mitigating Poisoning
Attacks in Federated Learning [98.43475653490219]
フェデレート・ラーニング(Federated Learning, FL)は、毒素による攻撃を受けやすい。
FreqFedは、モデルの更新を周波数領域に変換する新しいアグリゲーションメカニズムである。
FreqFedは, 凝集モデルの有用性に悪影響を及ぼすことなく, 毒性攻撃を効果的に軽減できることを実証した。
論文 参考訳(メタデータ) (2023-12-07T16:56:24Z) - Feature Reconstruction Attacks and Countermeasures of DNN training in
Vertical Federated Learning [39.85691324350159]
統合学習(FL)は、サイロ化されたデータに対する安全な協調トレーニングを促進するために、組織の中で、その垂直な形で、ますます多くデプロイされている。
VFLの採用が増加しているにもかかわらず、アクティブパーティが受動的パーティから特徴データを抽出できるかどうか、またどのようにして機能データを抽出できるかは、ほとんど不明である。
本稿では,VFLにおけるDNNトレーニングの特徴的セキュリティ問題について検討する。
論文 参考訳(メタデータ) (2022-10-13T06:23:47Z) - RelaxLoss: Defending Membership Inference Attacks without Losing Utility [68.48117818874155]
より達成可能な学習目標を持つ緩和された損失に基づく新しい学習フレームワークを提案する。
RelaxLossは、簡単な実装と無視可能なオーバーヘッドのメリットを加えた任意の分類モデルに適用できる。
当社のアプローチはMIAに対するレジリエンスの観点から,常に最先端の防御機構より優れています。
論文 参考訳(メタデータ) (2022-07-12T19:34:47Z) - Do Gradient Inversion Attacks Make Federated Learning Unsafe? [70.0231254112197]
フェデレートラーニング(FL)は、生データを共有することなく、AIモデルの協調トレーニングを可能にする。
モデル勾配からのディープニューラルネットワークの反転に関する最近の研究は、トレーニングデータの漏洩を防止するためのFLの安全性に関する懸念を提起した。
本研究では,本論文で提示されたこれらの攻撃が実際のFLユースケースでは実行不可能であることを示し,新たなベースライン攻撃を提供する。
論文 参考訳(メタデータ) (2022-02-14T18:33:12Z) - Federated Robustness Propagation: Sharing Adversarial Robustness in
Federated Learning [98.05061014090913]
フェデレートラーニング(FL)は、生データを共有することなく、参加するユーザのセットから学習する、人気のある分散ラーニングスキーマとして登場した。
敵対的トレーニング(AT)は集中学習のための健全なソリューションを提供する。
既存のFL技術では,非IDユーザ間の対向的ロバスト性を効果的に広めることができないことを示す。
本稿では, バッチ正規化統計量を用いてロバスト性を伝達する, 単純かつ効果的な伝搬法を提案する。
論文 参考訳(メタデータ) (2021-06-18T15:52:33Z) - Meta Federated Learning [57.52103907134841]
フェデレートラーニング(FL)は、時間的敵攻撃の訓練に弱い。
本稿では,メタフェデレーション学習(Meta Federated Learning, Meta-FL)を提案する。
論文 参考訳(メタデータ) (2021-02-10T16:48:32Z) - Provable Defense against Privacy Leakage in Federated Learning from
Representation Perspective [47.23145404191034]
Federated Learning(FL)は、プライベートデータを明示的に共有しないことでプライバシーリスクを低減できる人気の分散学習フレームワークです。
近年の研究では、モデル更新の共有がflを推論攻撃に対して脆弱にすることを示した。
我々は,勾配からのデータ表現漏洩がflにおけるプライバシー漏洩の本質的原因であることを示す。
論文 参考訳(メタデータ) (2020-12-08T20:42:12Z) - Defending against Backdoors in Federated Learning with Robust Learning
Rate [25.74681620689152]
フェデレートラーニング(FL)は、エージェントの集合が、潜在的に敏感なデータを共有せずに、協調的にモデルをトレーニングすることを可能にする。
バックドア攻撃において、敵はトレーニング中にモデルにバックドア機能を埋め込もうとする。
FLプロトコルの変更を最小限に抑える軽量ディフェンスを提案する。
論文 参考訳(メタデータ) (2020-07-07T23:38:35Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。