論文の概要: Defending Against Data Reconstruction Attacks in Federated Learning: An
Information Theory Approach
- arxiv url: http://arxiv.org/abs/2403.01268v1
- Date: Sat, 2 Mar 2024 17:12:32 GMT
- ステータス: 処理完了
- システム内更新日: 2024-03-05 14:28:59.494806
- Title: Defending Against Data Reconstruction Attacks in Federated Learning: An
Information Theory Approach
- Title(参考訳): 連合学習におけるデータ再構成攻撃に対する防御--情報理論的アプローチ
- Authors: Qi Tan, Qi Li, Yi Zhao, Zhuotao Liu, Xiaobing Guo, Ke Xu
- Abstract要約: フェデレートラーニング(FL)は、直接データ共有の代わりにパラメータを交換することで、異なるクライアント間でブラックボックスと高次元のモデルを訓練する。
FLは依然として、メンバーシップ推論攻撃 (MIA) やデータ再構成攻撃 (DRA) に悩まされている。
- 参考スコア(独自算出の注目度): 21.03960608358235
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Federated Learning (FL) trains a black-box and high-dimensional model among
different clients by exchanging parameters instead of direct data sharing,
which mitigates the privacy leak incurred by machine learning. However, FL
still suffers from membership inference attacks (MIA) or data reconstruction
attacks (DRA). In particular, an attacker can extract the information from
local datasets by constructing DRA, which cannot be effectively throttled by
existing techniques, e.g., Differential Privacy (DP).
In this paper, we aim to ensure a strong privacy guarantee for FL under DRA.
We prove that reconstruction errors under DRA are constrained by the
information acquired by an attacker, which means that constraining the
transmitted information can effectively throttle DRA. To quantify the
information leakage incurred by FL, we establish a channel model, which depends
on the upper bound of joint mutual information between the local dataset and
multiple transmitted parameters. Moreover, the channel model indicates that the
transmitted information can be constrained through data space operation, which
can improve training efficiency and the model accuracy under constrained
information. According to the channel model, we propose algorithms to constrain
the information transmitted in a single round of local training. With a limited
number of training rounds, the algorithms ensure that the total amount of
transmitted information is limited. Furthermore, our channel model can be
applied to various privacy-enhancing techniques (such as DP) to enhance privacy
guarantees against DRA. Extensive experiments with real-world datasets validate
the effectiveness of our methods.
- Abstract(参考訳): Federated Learning (FL)は、直接データ共有の代わりにパラメータを交換することで、さまざまなクライアント間でブラックボックスと高次元モデルをトレーニングする。
しかし、FLは依然としてメンバーシップ推論攻撃(MIA)やデータ再構成攻撃(DRA)に悩まされている。
特に、攻撃者はdraを構築してローカルデータセットから情報を抽出することができるが、既存の技術、例えば差分プライバシー(dp)では効果的に絞り込めない。
本稿では,DRA下でのFLの強力なプライバシー保証を実現することを目的とする。
攻撃者が取得した情報により、DRAによる復元誤りが制約されることを証明し、送信された情報の制約がDRAを効果的に抑制できることを示す。
FLによって引き起こされる情報漏洩を定量化するため,局所的なデータセットと複数の送信パラメータ間の相互情報の上限に依存するチャネルモデルを構築した。
さらに, チャネルモデルでは, 送信した情報をデータ空間操作により拘束できることが示され, 訓練効率と制約情報によるモデルの精度を向上させることができる。
チャネルモデルにより,一ラウンドのローカルトレーニングで送信される情報を制約するアルゴリズムを提案する。
限られた訓練ラウンド数で、アルゴリズムは送信される情報の総量が制限されることを保証する。
さらに、DRAに対するプライバシー保証を強化するために、DPなどの様々なプライバシー強化技術にチャネルモデルを適用することができる。
実世界のデータセットを用いた大規模な実験により,本手法の有効性が検証された。
関連論文リスト
- Ungeneralizable Examples [70.76487163068109]
学習不能なデータを作成するための現在のアプローチには、小さくて特殊なノイズが組み込まれている。
学習不能データの概念を条件付きデータ学習に拡張し、textbfUntextbf Generalizable textbfExamples (UGEs)を導入する。
UGEは認証されたユーザに対して学習性を示しながら、潜在的なハッカーに対する非学習性を維持している。
論文 参考訳(メタデータ) (2024-04-22T09:29:14Z) - Defending against Data Poisoning Attacks in Federated Learning via User Elimination [0.0]
本稿では,フェデレーションモデルにおける敵ユーザの戦略的排除に焦点を当てた,新たなフレームワークを提案する。
我々は、ローカルトレーニングインスタンスが収集したメタデータと差分プライバシー技術を統合することにより、フェデレートアルゴリズムのアグリゲーションフェーズにおける異常を検出する。
提案手法の有効性を実証し,ユーザのプライバシとモデル性能を維持しながらデータ汚染のリスクを大幅に軽減する。
論文 参考訳(メタデータ) (2024-04-19T10:36:00Z) - Mitigating Cross-client GANs-based Attack in Federated Learning [78.06700142712353]
マルチ分散マルチメディアクライアントは、グローバル共有モデルの共同学習のために、フェデレートラーニング(FL)を利用することができる。
FLは、GAN(C-GANs)をベースとしたクロスクライアント・ジェネレーティブ・敵ネットワーク(GANs)攻撃に苦しむ。
C-GAN攻撃に抵抗する現在のFLスキームを改善するためのFed-EDKD手法を提案する。
論文 参考訳(メタデータ) (2023-07-25T08:15:55Z) - PS-FedGAN: An Efficient Federated Learning Framework Based on Partially
Shared Generative Adversarial Networks For Data Privacy [56.347786940414935]
分散計算のための効果的な学習パラダイムとして、フェデレートラーニング(FL)が登場した。
本研究は,部分的なGANモデル共有のみを必要とする新しいFLフレームワークを提案する。
PS-FedGANと名付けられたこの新しいフレームワークは、異種データ分散に対処するためのGANリリースおよびトレーニングメカニズムを強化する。
論文 参考訳(メタデータ) (2023-05-19T05:39:40Z) - FedPDD: A Privacy-preserving Double Distillation Framework for
Cross-silo Federated Recommendation [4.467445574103374]
クロスプラットフォームレコメンデーションは、さまざまなプラットフォームから異種機能を集めることで、レコメンデーションの精度を向上させることを目的としている。
このようなプラットフォーム間のクロスサイロなコラボレーションは、ますます厳しいプライバシー保護規制によって制限される。
クロスサイロ・フェデレーション・レコメンデーションのための新しいプライバシー保護型二重蒸留フレームワークであるFedPDDを提案する。
論文 参考訳(メタデータ) (2023-05-09T16:17:04Z) - Do Gradient Inversion Attacks Make Federated Learning Unsafe? [70.0231254112197]
フェデレートラーニング(FL)は、生データを共有することなく、AIモデルの協調トレーニングを可能にする。
モデル勾配からのディープニューラルネットワークの反転に関する最近の研究は、トレーニングデータの漏洩を防止するためのFLの安全性に関する懸念を提起した。
本研究では,本論文で提示されたこれらの攻撃が実際のFLユースケースでは実行不可能であることを示し,新たなベースライン攻撃を提供する。
論文 参考訳(メタデータ) (2022-02-14T18:33:12Z) - Delving into Data: Effectively Substitute Training for Black-box Attack [84.85798059317963]
本稿では,知識盗むプロセスで使用されるデータの分散設計に焦点をあてた,新しい視点代替トレーニングを提案する。
これら2つのモジュールの組み合わせにより、代替モデルとターゲットモデルの一貫性がさらに向上し、敵攻撃の有効性が大幅に向上する。
論文 参考訳(メタデータ) (2021-04-26T07:26:29Z) - A Quantitative Metric for Privacy Leakage in Federated Learning [22.968763654455298]
クライアントが勾配における情報漏洩の潜在的なリスクを評価するために、相互情報に基づく定量的指標を提案します。
情報漏洩のリスクは、タスクモデルの状態だけでなく、固有のデータ分布に関連していることが証明されています。
論文 参考訳(メタデータ) (2021-02-24T02:48:35Z) - Privacy-preserving Transfer Learning via Secure Maximum Mean Discrepancy [15.145214895007134]
本稿では,同型暗号に基づくSMMD(Maximum Mean Discrepancy)のセキュアバージョンを提案する。
提案したSMMDは、ソースとターゲットデータ分布を整列させる際に、転送学習における潜在的な情報漏洩を回避することができる。
論文 参考訳(メタデータ) (2020-09-24T13:34:32Z) - Privacy-preserving Traffic Flow Prediction: A Federated Learning
Approach [61.64006416975458]
本稿では,フェデレート学習に基づくGated Recurrent Unit Neural Network Algorithm (FedGRU) というプライバシ保護機械学習手法を提案する。
FedGRUは、現在の集中学習方法と異なり、安全なパラメータアグリゲーション機構を通じて、普遍的な学習モデルを更新する。
FedGRUの予測精度は、先進的なディープラーニングモデルよりも90.96%高い。
論文 参考訳(メタデータ) (2020-03-19T13:07:49Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。