論文の概要: Federated Learning under Attack: Improving Gradient Inversion for Batch of Images
- arxiv url: http://arxiv.org/abs/2409.17767v1
- Date: Thu, 26 Sep 2024 12:02:36 GMT
- ステータス: 処理完了
- システム内更新日: 2024-09-28 19:53:49.694145
- Title: Federated Learning under Attack: Improving Gradient Inversion for Batch of Images
- Title(参考訳): 攻撃下のフェデレーション学習:画像のバッチに対するグラディエント・インバージョンの改善
- Authors: Luiz Leite, Yuri Santo, Bruno L. Dalmazo, André Riker,
- Abstract要約: フェデレートラーニング(FL)は、ユーザのデータのプライバシを保存する機械学習アプローチとして登場した。
フィードバックブレンディング(DLG-FB)を用いたグラディエンスからのディープリークは、逆勾配攻撃を改善することができる。
- 参考スコア(独自算出の注目度): 1.5749416770494706
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Federated Learning (FL) has emerged as a machine learning approach able to preserve the privacy of user's data. Applying FL, clients train machine learning models on a local dataset and a central server aggregates the learned parameters coming from the clients, training a global machine learning model without sharing user's data. However, the state-of-the-art shows several approaches to promote attacks on FL systems. For instance, inverting or leaking gradient attacks can find, with high precision, the local dataset used during the training phase of the FL. This paper presents an approach, called Deep Leakage from Gradients with Feedback Blending (DLG-FB), which is able to improve the inverting gradient attack, considering the spatial correlation that typically exists in batches of images. The performed evaluation shows an improvement of 19.18% and 48,82% in terms of attack success rate and the number of iterations per attacked image, respectively.
- Abstract(参考訳): フェデレートラーニング(FL)は、ユーザのデータのプライバシを保存する機械学習アプローチとして登場した。
FLを適用すると、クライアントはローカルデータセットで機械学習モデルをトレーニングし、中央サーバはクライアントから得られた学習パラメータを集約し、ユーザのデータを共有せずにグローバル機械学習モデルをトレーニングする。
しかし、この最先端技術はFLシステムに対する攻撃を促進するいくつかのアプローチを示している。
例えば、逆勾配攻撃や漏洩勾配攻撃は高精度で、FLのトレーニングフェーズで使用されるローカルデータセットを見つけることができる。
本稿では,画像のバッチに存在する空間的相関を考慮し,逆勾配攻撃を改善する手法として,DLG-FB(Deep Leakage from Gradients with Feedback Blending)を提案する。
評価の結果,攻撃成功率の19.18%と48,82%,攻撃画像当たりの反復回数がそれぞれ改善された。
関連論文リスト
- Data-Agnostic Model Poisoning against Federated Learning: A Graph
Autoencoder Approach [65.2993866461477]
本稿では,フェデレートラーニング(FL)に対するデータに依存しないモデル中毒攻撃を提案する。
この攻撃はFLトレーニングデータの知識を必要とせず、有効性と検出不能の両方を達成する。
実験により、FLの精度は提案した攻撃の下で徐々に低下し、既存の防御機構では検出できないことが示された。
論文 参考訳(メタデータ) (2023-11-30T12:19:10Z) - Client-side Gradient Inversion Against Federated Learning from Poisoning [59.74484221875662]
フェデレートラーニング(FL)により、分散参加者は、データを中央サーバに直接共有することなく、グローバルモデルをトレーニングできる。
近年の研究では、FLは元のトレーニングサンプルの再構築を目的とした勾配反転攻撃(GIA)に弱いことが判明している。
本稿では,クライアント側から起動可能な新たな攻撃手法であるクライアント側中毒性グレーディエント・インバージョン(CGI)を提案する。
論文 参考訳(メタデータ) (2023-09-14T03:48:27Z) - Approximate and Weighted Data Reconstruction Attack in Federated Learning [1.802525429431034]
分散学習(FL)は、クライアントがプライベートデータを共有せずに、機械学習モデルを構築するためのコラボレーションを可能にする。
最近のデータ再構成攻撃は、攻撃者がFLで共有されたパラメータに基づいてクライアントのトレーニングデータを復元できることを実証している。
本稿では、クライアントのローカルトレーニングプロセスの中間モデル更新を生成することにより、FedAvgシナリオの攻撃を可能にする近似手法を提案する。
論文 参考訳(メタデータ) (2023-08-13T17:40:56Z) - Subspace based Federated Unlearning [75.90552823500633]
フェデレート・アンラーニング(FL)は、ユーザが忘れられる権利を満たすために、特定のターゲットクライアントのFLへの貢献を取り除くことを目的としている。
既存のフェデレートされた未学習アルゴリズムでは、パラメータの更新履歴をサーバに格納する必要がある。
そこで我々は,SFUと呼ばれる,単純なyet効率のサブスペースに基づくフェデレーションアンラーニング手法を提案する。
論文 参考訳(メタデータ) (2023-02-24T04:29:44Z) - Acceleration of Federated Learning with Alleviated Forgetting in Local
Training [61.231021417674235]
フェデレートラーニング(FL)は、プライバシを保護しながら機械学習モデルの分散最適化を可能にする。
我々は,FedRegを提案する。FedRegは,局所的な訓練段階において,知識を忘れることなくFLを加速するアルゴリズムである。
我々の実験は、FedRegはFLの収束率を著しく改善するだけでなく、特にニューラルネットワークアーキテクチャが深い場合にも改善することを示した。
論文 参考訳(メタデータ) (2022-03-05T02:31:32Z) - Do Gradient Inversion Attacks Make Federated Learning Unsafe? [70.0231254112197]
フェデレートラーニング(FL)は、生データを共有することなく、AIモデルの協調トレーニングを可能にする。
モデル勾配からのディープニューラルネットワークの反転に関する最近の研究は、トレーニングデータの漏洩を防止するためのFLの安全性に関する懸念を提起した。
本研究では,本論文で提示されたこれらの攻撃が実際のFLユースケースでは実行不可能であることを示し,新たなベースライン攻撃を提供する。
論文 参考訳(メタデータ) (2022-02-14T18:33:12Z) - Location Leakage in Federated Signal Maps [7.093808731951124]
複数のモバイルデバイスで収集した測定値からセルラーネットワーク性能(信号マップ)を予測することの問題点を考察する。
i) フェデレーション学習は、ユーザがデバイスにトレーニングデータを保持しながら、協調的にモデルをトレーニングすることを可能にする。
我々は、FLに参加しているターゲットユーザーから更新を観測し、グラデーション(DLG)タイプの攻撃による深い漏洩を用いて位置情報を推測する、誠実だが正確なサーバを考える。
FLのチューニングを含むフェデレーション学習フレームワーク内でのメカニズムの再検討と設計により、位置のプライバシーを保護するために、この観測に基づいて構築する。
論文 参考訳(メタデータ) (2021-12-07T02:28:12Z) - A Novel Attribute Reconstruction Attack in Federated Learning [7.426857207652392]
フェデレーテッド・ラーニング(FL)は、多数の参加者がプライベートトレーニングデータを公開することなく、共同MLモデルを構築することが可能な、有望な学習パラダイムとして登場した。
既存のFL設計では、システム内外の敵がデータプライバシーを侵害するために悪用できる脆弱性が示されている。
トレーニングデータ属性を再構築するためのcos-matchingと呼ばれる,より効率的で効率的な勾配マッチング手法を開発した。
論文 参考訳(メタデータ) (2021-08-16T05:57:01Z) - Over-the-Air Federated Learning from Heterogeneous Data [107.05618009955094]
フェデレートラーニング(Federated Learning、FL)は、集中型モデルの分散ラーニングのためのフレームワークである。
我々は,共通局所勾配勾配勾配(SGD)FLアルゴリズムを強化するコンバージェント OTA FL (COTAF) アルゴリズムを開発した。
我々は,COTAFにより誘導されるプリコーディングが,OTA FLを用いて訓練されたモデルの収束率と精度を顕著に向上させることを示す。
論文 参考訳(メタデータ) (2020-09-27T08:28:25Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。