論文の概要: Client-side Gradient Inversion Against Federated Learning from Poisoning
- arxiv url: http://arxiv.org/abs/2309.07415v1
- Date: Thu, 14 Sep 2023 03:48:27 GMT
- ステータス: 処理完了
- システム内更新日: 2023-09-15 16:20:12.652884
- Title: Client-side Gradient Inversion Against Federated Learning from Poisoning
- Title(参考訳): 中毒からのフェデレーション学習に対するクライアント側勾配インバージョン
- Authors: Jiaheng Wei, Yanjun Zhang, Leo Yu Zhang, Chao Chen, Shirui Pan,
Kok-Leong Ong, Jun Zhang and Yang Xiang
- Abstract要約: フェデレートラーニング(FL)により、分散参加者は、データを中央サーバに直接共有することなく、グローバルモデルをトレーニングできる。
近年の研究では、FLは元のトレーニングサンプルの再構築を目的とした勾配反転攻撃(GIA)に弱いことが判明している。
本稿では,クライアント側から起動可能な新たな攻撃手法であるクライアント側中毒性グレーディエント・インバージョン(CGI)を提案する。
- 参考スコア(独自算出の注目度): 59.74484221875662
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Federated Learning (FL) enables distributed participants (e.g., mobile
devices) to train a global model without sharing data directly to a central
server. Recent studies have revealed that FL is vulnerable to gradient
inversion attack (GIA), which aims to reconstruct the original training samples
and poses high risk against the privacy of clients in FL. However, most
existing GIAs necessitate control over the server and rely on strong prior
knowledge including batch normalization and data distribution information. In
this work, we propose Client-side poisoning Gradient Inversion (CGI), which is
a novel attack method that can be launched from clients. For the first time, we
show the feasibility of a client-side adversary with limited knowledge being
able to recover the training samples from the aggregated global model. We take
a distinct approach in which the adversary utilizes a malicious model that
amplifies the loss of a specific targeted class of interest. When honest
clients employ the poisoned global model, the gradients of samples belonging to
the targeted class are magnified, making them the dominant factor in the
aggregated update. This enables the adversary to effectively reconstruct the
private input belonging to other clients using the aggregated update. In
addition, our CGI also features its ability to remain stealthy against
Byzantine-robust aggregation rules (AGRs). By optimizing malicious updates and
blending benign updates with a malicious replacement vector, our method remains
undetected by these defense mechanisms. To evaluate the performance of CGI, we
conduct experiments on various benchmark datasets, considering representative
Byzantine-robust AGRs, and exploring diverse FL settings with different levels
of adversary knowledge about the data. Our results demonstrate that CGI
consistently and successfully extracts training input in all tested scenarios.
- Abstract(参考訳): フェデレートラーニング(FL)は、分散参加者(モバイルデバイスなど)が中央サーバに直接データを共有することなくグローバルモデルをトレーニングすることを可能にする。
近年の研究では、FLは元のトレーニングサンプルを再構築し、FLのクライアントのプライバシに対して高いリスクを与えるため、勾配反転攻撃(GIA)に弱いことが判明している。
しかし、既存のGIAの多くはサーバの制御を必要としており、バッチの正規化やデータ分散情報を含む強力な事前知識に依存している。
本研究では,クライアント側から起動可能な新たな攻撃手法であるクライアント側中毒性グレーディエント・インバージョン(CGI)を提案する。
本研究は,グローバルモデルからトレーニングサンプルを復元できる知識が限られているクライアント側の敵が,初めて実現可能であることを示す。
我々は、敵が特定の対象の関心のクラスを失うのを増幅する悪意のあるモデルを利用するという、異なるアプローチを取る。
正直なクライアントが有毒なグローバルモデルを採用すると、対象クラスに属するサンプルの勾配が拡大され、集約された更新の主要な要因となる。
これにより、アグリゲートされた更新を使用して、他のクライアントに属するプライベート入力を効果的に再構築することができる。
さらに、我々のCGIは、ビザンチン・ロバスト・アグリゲーション・ルール(AGR)に対してステルス性を維持する能力も備えています。
悪質な更新を最適化し、良質な更新を悪質な代替ベクターと組み合わせることで、これらの防御機構によって検出されていない。
CGIの性能を評価するために,Byzantine-robust AGRを代表とするベンチマークデータセットを用いて実験を行い,データに関するさまざまなレベルの逆の知識を持つ多様なFL設定を探索する。
以上の結果から,CGIはすべてのテストシナリオにおいて,トレーニングインプットを一貫して抽出し,良好な結果を得ることができた。
関連論文リスト
- Formal Logic-guided Robust Federated Learning against Poisoning Attacks [6.997975378492098]
Federated Learning (FL)は、集中型機械学習(ML)に関連するプライバシー問題に対して、有望な解決策を提供する。
FLは、敵クライアントがトレーニングデータやモデル更新を操作して全体的なモデルパフォーマンスを低下させる、毒殺攻撃など、さまざまなセキュリティ上の脅威に対して脆弱である。
本稿では,時系列タスクにおけるフェデレート学習における中毒攻撃の軽減を目的とした防御機構を提案する。
論文 参考訳(メタデータ) (2024-11-05T16:23:19Z) - ACCESS-FL: Agile Communication and Computation for Efficient Secure Aggregation in Stable Federated Learning Networks [26.002975401820887]
Federated Learning(FL)は、プライバシ対応アプリケーション用に設計された分散学習フレームワークである。
従来のFLは、プレーンモデルのアップデートがサーバに送信されると、機密性の高いクライアントデータを露出するリスクにアプローチする。
GoogleのSecure Aggregation(SecAgg)プロトコルは、二重マスキング技術を使用することで、この脅威に対処する。
通信・計算効率の高いセキュアアグリゲーション手法であるACCESS-FLを提案する。
論文 参考訳(メタデータ) (2024-09-03T09:03:38Z) - Overcoming Catastrophic Forgetting in Federated Class-Incremental Learning via Federated Global Twin Generator [13.808765929040677]
Federated Global Twin Generator (FedGTG)はFCILフレームワークで、クライアントデータにアクセスすることなく、グローバル側でプライバシ保護された生成モデルトレーニングを利用する。
我々は自然画像上でのFedGTGの頑健さと、平坦な局所性ミニマに収束し、より良い予測信頼(校正)を達成する能力について分析する。
CIFAR-10, CIFAR-100, および小画像Netの実験結果から, 従来のフレームワークと比較してFedGTGの精度と補正精度の向上が示された。
論文 参考訳(メタデータ) (2024-07-13T08:23:21Z) - Federated Face Forgery Detection Learning with Personalized Representation [63.90408023506508]
ディープジェネレータ技術は、区別がつかない高品質のフェイクビデオを制作し、深刻な社会的脅威をもたらす可能性がある。
従来の偽造検出手法は、データを直接集中的に訓練する。
本稿では,個人化表現を用いた新しいフェデレーション顔偽造検出学習を提案する。
論文 参考訳(メタデータ) (2024-06-17T02:20:30Z) - FedBayes: A Zero-Trust Federated Learning Aggregation to Defend Against
Adversarial Attacks [1.689369173057502]
フェデレートラーニング(Federated Learning)は、クライアントデータに直接アクセスすることなく、マシンラーニングモデルをトレーニングする分散メソッドを開発した。
悪意のあるクライアントは、グローバルモデルを破壊し、フェデレーション内のすべてのクライアントのパフォーマンスを低下させることができる。
新たなアグリゲーション手法であるFedBayesは、クライアントのモデル重みの確率を計算することにより、悪意のあるクライアントの効果を緩和する。
論文 参考訳(メタデータ) (2023-12-04T21:37:50Z) - Mitigating Cross-client GANs-based Attack in Federated Learning [78.06700142712353]
マルチ分散マルチメディアクライアントは、グローバル共有モデルの共同学習のために、フェデレートラーニング(FL)を利用することができる。
FLは、GAN(C-GANs)をベースとしたクロスクライアント・ジェネレーティブ・敵ネットワーク(GANs)攻撃に苦しむ。
C-GAN攻撃に抵抗する現在のFLスキームを改善するためのFed-EDKD手法を提案する。
論文 参考訳(メタデータ) (2023-07-25T08:15:55Z) - FedDefender: Client-Side Attack-Tolerant Federated Learning [60.576073964874]
フェデレーション学習は、プライバシを損なうことなく、分散化されたデータソースからの学習を可能にする。
悪意のあるクライアントがトレーニングプロセスに干渉する、毒殺攻撃のモデル化には脆弱である。
我々はFedDefenderと呼ばれるクライアントサイドに焦点を当てた新しい防御機構を提案し、クライアントの堅牢なローカルモデルのトレーニングを支援する。
論文 参考訳(メタデータ) (2023-07-18T08:00:41Z) - Client-specific Property Inference against Secure Aggregation in
Federated Learning [52.8564467292226]
フェデレートラーニングは、さまざまな参加者の間で共通のモデルを協調的に訓練するための、広く使われているパラダイムとなっている。
多くの攻撃は、メンバーシップ、資産、または参加者データの完全な再構築のような機密情報を推測することは依然として可能であることを示した。
単純な線形モデルでは、集約されたモデル更新からクライアント固有のプロパティを効果的にキャプチャできることが示される。
論文 参考訳(メタデータ) (2023-03-07T14:11:01Z) - Acceleration of Federated Learning with Alleviated Forgetting in Local
Training [61.231021417674235]
フェデレートラーニング(FL)は、プライバシを保護しながら機械学習モデルの分散最適化を可能にする。
我々は,FedRegを提案する。FedRegは,局所的な訓練段階において,知識を忘れることなくFLを加速するアルゴリズムである。
我々の実験は、FedRegはFLの収束率を著しく改善するだけでなく、特にニューラルネットワークアーキテクチャが深い場合にも改善することを示した。
論文 参考訳(メタデータ) (2022-03-05T02:31:32Z) - A Framework for Evaluating Gradient Leakage Attacks in Federated
Learning [14.134217287912008]
Federated Learning(FL)は、クライアントのネットワークと協調的なモデルトレーニングのための、新興の分散機械学習フレームワークである。
最近の研究では、クライアントからフェデレーションサーバにローカルパラメータの更新を共有しても、グラデーションリーク攻撃の影響を受けやすいことが示されている。
本稿では,クライアントプライバシ漏洩攻撃のさまざまな形態の評価と比較を行うための原則的フレームワークを提案する。
論文 参考訳(メタデータ) (2020-04-22T05:15:03Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。