論文の概要: Deep Leakage with Generative Flow Matching Denoiser
- arxiv url: http://arxiv.org/abs/2601.15049v1
- Date: Wed, 21 Jan 2026 14:51:01 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-01-22 21:27:50.404499
- Title: Deep Leakage with Generative Flow Matching Denoiser
- Title(参考訳): ジェネレーティブフローマッチングデノイザを用いた深層漏洩
- Authors: Isaac Baglin, Xiatian Zhu, Simon Hadfield,
- Abstract要約: 再建プロセスに先立って生成フローマッチング(FM)を組み込んだ新しい深部リーク攻撃(DL)を導入する。
当社のアプローチは、ピクセルレベル、知覚的、特徴に基づく類似度測定において、最先端の攻撃よりも一貫して優れています。
- 参考スコア(独自算出の注目度): 54.05993847488204
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Federated Learning (FL) has emerged as a powerful paradigm for decentralized model training, yet it remains vulnerable to deep leakage (DL) attacks that reconstruct private client data from shared model updates. While prior DL methods have demonstrated varying levels of success, they often suffer from instability, limited fidelity, or poor robustness under realistic FL settings. We introduce a new DL attack that integrates a generative Flow Matching (FM) prior into the reconstruction process. By guiding optimization toward the distribution of realistic images (represented by a flow matching foundation model), our method enhances reconstruction fidelity without requiring knowledge of the private data. Extensive experiments on multiple datasets and target models demonstrate that our approach consistently outperforms state-of-the-art attacks across pixel-level, perceptual, and feature-based similarity metrics. Crucially, the method remains effective across different training epochs, larger client batch sizes, and under common defenses such as noise injection, clipping, and sparsification. Our findings call for the development of new defense strategies that explicitly account for adversaries equipped with powerful generative priors.
- Abstract(参考訳): フェデレートラーニング(FL)は、分散モデルトレーニングの強力なパラダイムとして登場したが、共有モデル更新からプライベートクライアントデータを再構築するディープリーク(DL)攻撃には依然として脆弱である。
従来のDL法は様々なレベルの成功を示してきたが、現実的なFL設定下では不安定性、有限性、またはロバスト性に悩まされることが多い。
再建プロセスに先立って生成フローマッチング(FM)を組み込んだ新たなDLアタックを導入する。
フローマッチング基礎モデルにより表現される)現実的な画像の分布に最適化を向けることで,プライベートデータの知識を必要とせずに再構成の忠実度を向上させる。
複数のデータセットとターゲットモデルに対する大規模な実験により、我々のアプローチは、ピクセルレベル、知覚的、特徴に基づく類似度メトリクスにわたって、最先端の攻撃を一貫して上回ります。
重要なことは、この方法は異なる訓練エポック、より大きなクライアントバッチサイズ、およびノイズ注入、クリップング、スパシフィケーションといった共通の防御下で有効である。
本研究は, 強力な生成前駆体を装備した敵を明示的に考慮し, 新たな防衛戦略の確立を訴えるものである。
関連論文リスト
- GUIDE: Enhancing Gradient Inversion Attacks in Federated Learning with Denoising Models [5.828517827413101]
フェデレートラーニング(FL)は、プライバシを保護しながら、複数のクライアントにわたる機械学習(ML)モデルの協調トレーニングを可能にする。
本稿では,拡散モデルをデノナイズツールとして活用し,FLにおける画像再構成攻撃を改善する新しい手法であるGUIDEを提案する。
論文 参考訳(メタデータ) (2025-10-20T15:04:29Z) - Adversarial Robustification via Text-to-Image Diffusion Models [56.37291240867549]
アドリラルロバスト性は、ニューラルネットワークをエンコードする難しい性質として伝統的に信じられてきた。
データを使わずに敵の堅牢性を実現するために,スケーラブルでモデルに依存しないソリューションを開発した。
論文 参考訳(メタデータ) (2024-07-26T10:49:14Z) - Model Inversion Attacks Through Target-Specific Conditional Diffusion Models [54.69008212790426]
モデル反転攻撃(MIA)は、ターゲット分類器のトレーニングセットからプライベートイメージを再構築することを目的としており、それによってAIアプリケーションにおけるプライバシー上の懸念が高まる。
従来のGANベースのMIAは、GANの固有の欠陥と潜伏空間における最適化の偏りにより、劣った遺伝子的忠実度に悩まされる傾向にある。
これらの問題を緩和するために拡散モデル反転(Diff-MI)攻撃を提案する。
論文 参考訳(メタデータ) (2024-07-16T06:38:49Z) - FedAA: A Reinforcement Learning Perspective on Adaptive Aggregation for Fair and Robust Federated Learning [5.622065847054885]
Federated Learning (FL)は、分散デバイス間でのプライバシ保護モデルトレーニングのための有望なアプローチとして登場した。
我々はtextbfAdaptive textbfAggregation を通じてクライアントのコントリビューションを最適化する textbfFedAA という新しい手法を導入し、悪意のあるクライアントに対するモデルロバスト性を高める。
論文 参考訳(メタデータ) (2024-02-08T10:22:12Z) - Learn from the Past: A Proxy Guided Adversarial Defense Framework with
Self Distillation Regularization [53.04697800214848]
敵対的訓練(AT)は、ディープラーニングモデルの堅牢性を固める上で重要な要素である。
AT方式は、目標モデルの防御のために直接反復的な更新を頼りにしており、不安定な訓練や破滅的なオーバーフィッティングといった障害に頻繁に遭遇する。
汎用プロキシガイド型防衛フレームワークLAST(bf Pbf astから学ぶ)を提案する。
論文 参考訳(メタデータ) (2023-10-19T13:13:41Z) - Client-side Gradient Inversion Against Federated Learning from Poisoning [59.74484221875662]
フェデレートラーニング(FL)により、分散参加者は、データを中央サーバに直接共有することなく、グローバルモデルをトレーニングできる。
近年の研究では、FLは元のトレーニングサンプルの再構築を目的とした勾配反転攻撃(GIA)に弱いことが判明している。
本稿では,クライアント側から起動可能な新たな攻撃手法であるクライアント側中毒性グレーディエント・インバージョン(CGI)を提案する。
論文 参考訳(メタデータ) (2023-09-14T03:48:27Z) - Approximate and Weighted Data Reconstruction Attack in Federated Learning [1.802525429431034]
分散学習(FL)は、クライアントがプライベートデータを共有せずに、機械学習モデルを構築するためのコラボレーションを可能にする。
最近のデータ再構成攻撃は、攻撃者がFLで共有されたパラメータに基づいてクライアントのトレーニングデータを復元できることを実証している。
本稿では、クライアントのローカルトレーニングプロセスの中間モデル更新を生成することにより、FedAvgシナリオの攻撃を可能にする近似手法を提案する。
論文 参考訳(メタデータ) (2023-08-13T17:40:56Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。