論文の概要: GUIDE: Enhancing Gradient Inversion Attacks in Federated Learning with Denoising Models
- arxiv url: http://arxiv.org/abs/2510.17621v2
- Date: Thu, 23 Oct 2025 09:28:35 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-25 03:08:12.122137
- Title: GUIDE: Enhancing Gradient Inversion Attacks in Federated Learning with Denoising Models
- Title(参考訳): GUIDE: モデルによるフェデレーション学習におけるグラディエント・インバージョン・アタックの強化
- Authors: Vincenzo Carletti, Pasquale Foggia, Carlo Mazzocca, Giuseppe Parrella, Mario Vento,
- Abstract要約: フェデレートラーニング(FL)は、プライバシを保護しながら、複数のクライアントにわたる機械学習(ML)モデルの協調トレーニングを可能にする。
本稿では,拡散モデルをデノナイズツールとして活用し,FLにおける画像再構成攻撃を改善する新しい手法であるGUIDEを提案する。
- 参考スコア(独自算出の注目度): 5.828517827413101
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Federated Learning (FL) enables collaborative training of Machine Learning (ML) models across multiple clients while preserving their privacy. Rather than sharing raw data, federated clients transmit locally computed updates to train the global model. Although this paradigm should provide stronger privacy guarantees than centralized ML, client updates remain vulnerable to privacy leakage. Adversaries can exploit them to infer sensitive properties about the training data or even to reconstruct the original inputs via Gradient Inversion Attacks (GIAs). Under the honest-butcurious threat model, GIAs attempt to reconstruct training data by reversing intermediate updates using optimizationbased techniques. We observe that these approaches usually reconstruct noisy approximations of the original inputs, whose quality can be enhanced with specialized denoising models. This paper presents Gradient Update Inversion with DEnoising (GUIDE), a novel methodology that leverages diffusion models as denoising tools to improve image reconstruction attacks in FL. GUIDE can be integrated into any GIAs that exploits surrogate datasets, a widely adopted assumption in GIAs literature. We comprehensively evaluate our approach in two attack scenarios that use different FL algorithms, models, and datasets. Our results demonstrate that GUIDE integrates seamlessly with two state-ofthe- art GIAs, substantially improving reconstruction quality across multiple metrics. Specifically, GUIDE achieves up to 46% higher perceptual similarity, as measured by the DreamSim metric.
- Abstract(参考訳): フェデレートラーニング(FL)は、プライバシを保護しながら、複数のクライアントにわたる機械学習(ML)モデルの協調トレーニングを可能にする。
生データを共有するのではなく、フェデレートされたクライアントはローカルに計算された更新を送信し、グローバルモデルをトレーニングする。
このパラダイムは、集中型MLよりも強力なプライバシ保証を提供するべきであるが、クライアントのアップデートは、プライバシの漏洩に対して脆弱である。
敵はそれらを利用して、トレーニングデータに関するセンシティブな特性を推測したり、グラディエント・インバージョン・アタック(GIA)を通じて元の入力を再構築することもできる。
真に反する脅威モデルの下で、GIAは最適化に基づく手法を用いて中間更新を反転させることで、トレーニングデータを再構築しようとする。
これらの手法は、通常、特定の復調モデルを用いて品質を向上できる原入力の雑音近似を再構成する。
本稿では,拡散モデルをデノナイズツールとして活用し,FLにおける画像再構成攻撃を改善する新しい手法であるGUIDEを提案する。
GUIDEは、サロゲートデータセットを利用する任意のGIAに統合することができる。
我々は、異なるFLアルゴリズム、モデル、データセットを使用する2つの攻撃シナリオにおいて、我々のアプローチを包括的に評価する。
その結果、GUIDEは2つの最先端GIAとシームレスに統合され、複数のメトリクスの再構成品質が大幅に向上することを示した。
特に、GUIDEはDreamSimメトリックによって測定されるように、知覚的類似性が最大46%向上する。
関連論文リスト
- Model Inversion Attacks Through Target-Specific Conditional Diffusion Models [54.69008212790426]
モデル反転攻撃(MIA)は、ターゲット分類器のトレーニングセットからプライベートイメージを再構築することを目的としており、それによってAIアプリケーションにおけるプライバシー上の懸念が高まる。
従来のGANベースのMIAは、GANの固有の欠陥と潜伏空間における最適化の偏りにより、劣った遺伝子的忠実度に悩まされる傾向にある。
これらの問題を緩和するために拡散モデル反転(Diff-MI)攻撃を提案する。
論文 参考訳(メタデータ) (2024-07-16T06:38:49Z) - An Aggregation-Free Federated Learning for Tackling Data Heterogeneity [50.44021981013037]
フェデレートラーニング(FL)は、分散データセットからの知識を活用する効果に頼っている。
従来のFLメソッドでは、クライアントが前回のトレーニングラウンドからサーバが集約したグローバルモデルに基づいてローカルモデルを更新するアグリゲート-then-adaptフレームワークを採用している。
我々は,新しいアグリゲーションフリーFLアルゴリズムであるFedAFを紹介する。
論文 参考訳(メタデータ) (2024-04-29T05:55:23Z) - Federated Learning with Projected Trajectory Regularization [65.6266768678291]
フェデレーション学習は、ローカルデータを共有せずに、分散クライアントから機械学習モデルの共同トレーニングを可能にする。
連合学習における重要な課題の1つは、クライアントにまたがる識別できない分散データを扱うことである。
本稿では,データ問題に対処するための予測軌道正則化(FedPTR)を備えた新しいフェデレーション学習フレームワークを提案する。
論文 参考訳(メタデータ) (2023-12-22T02:12:08Z) - Window-based Model Averaging Improves Generalization in Heterogeneous
Federated Learning [29.140054600391917]
Federated Learning (FL)は、分散ユーザからグローバルモデルを学び、プライバシを保護することを目的としている。
ウィンドウベースアプローチを用いて,異なるラウンドからグローバルモデルを集約するWIMA(Window-based Model Averaging)を提案する。
本実験は,WIMAの分散シフトに対する堅牢性やクライアントサンプリングの悪さを実証し,よりスムーズで安定した学習傾向を示した。
論文 参考訳(メタデータ) (2023-10-02T17:30:14Z) - Client-side Gradient Inversion Against Federated Learning from Poisoning [59.74484221875662]
フェデレートラーニング(FL)により、分散参加者は、データを中央サーバに直接共有することなく、グローバルモデルをトレーニングできる。
近年の研究では、FLは元のトレーニングサンプルの再構築を目的とした勾配反転攻撃(GIA)に弱いことが判明している。
本稿では,クライアント側から起動可能な新たな攻撃手法であるクライアント側中毒性グレーディエント・インバージョン(CGI)を提案する。
論文 参考訳(メタデータ) (2023-09-14T03:48:27Z) - Approximate and Weighted Data Reconstruction Attack in Federated Learning [1.802525429431034]
分散学習(FL)は、クライアントがプライベートデータを共有せずに、機械学習モデルを構築するためのコラボレーションを可能にする。
最近のデータ再構成攻撃は、攻撃者がFLで共有されたパラメータに基づいてクライアントのトレーニングデータを復元できることを実証している。
本稿では、クライアントのローカルトレーニングプロセスの中間モデル更新を生成することにより、FedAvgシナリオの攻撃を可能にする近似手法を提案する。
論文 参考訳(メタデータ) (2023-08-13T17:40:56Z) - Do Gradient Inversion Attacks Make Federated Learning Unsafe? [70.0231254112197]
フェデレートラーニング(FL)は、生データを共有することなく、AIモデルの協調トレーニングを可能にする。
モデル勾配からのディープニューラルネットワークの反転に関する最近の研究は、トレーニングデータの漏洩を防止するためのFLの安全性に関する懸念を提起した。
本研究では,本論文で提示されたこれらの攻撃が実際のFLユースケースでは実行不可能であることを示し,新たなベースライン攻撃を提供する。
論文 参考訳(メタデータ) (2022-02-14T18:33:12Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。