論文の概要: From Research to Reality: Feasibility of Gradient Inversion Attacks in Federated Learning
- arxiv url: http://arxiv.org/abs/2508.19819v1
- Date: Wed, 27 Aug 2025 12:07:23 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-08-28 19:07:41.61991
- Title: From Research to Reality: Feasibility of Gradient Inversion Attacks in Federated Learning
- Title(参考訳): 研究から現実へ:フェデレートラーニングにおけるグラディエント・インバージョン・アタックの可能性
- Authors: Viktor Valadi, Mattias Åkesson, Johan Östman, Salman Toor, Andreas Hellander,
- Abstract要約: アーキテクチャとトレーニングの振る舞いが脆弱性にどのように影響するかを系統的に分析する。
現実的な訓練条件下では,攻撃的知識の異なるトレーニングモードにおけるモデルに対する2つの新たな攻撃を導入し,最先端のパフォーマンスを実現する。
アーキテクチャの選択と運用モードの組み合わせが、プライバシに有意義な影響を及ぼすかを明確にし、最初の包括的な設定マッピングを提供することで、この作業を締めくくります。
- 参考スコア(独自算出の注目度): 3.6055874544834445
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Gradient inversion attacks have garnered attention for their ability to compromise privacy in federated learning. However, many studies consider attacks with the model in inference mode, where training-time behaviors like dropout are disabled and batch normalization relies on fixed statistics. In this work, we systematically analyze how architecture and training behavior affect vulnerability, including the first in-depth study of inference-mode clients, which we show dramatically simplifies inversion. To assess attack feasibility under more realistic conditions, we turn to clients operating in standard training mode. In this setting, we find that successful attacks are only possible when several architectural conditions are met simultaneously: models must be shallow and wide, use skip connections, and, critically, employ pre-activation normalization. We introduce two novel attacks against models in training-mode with varying attacker knowledge, achieving state-of-the-art performance under realistic training conditions. We extend these efforts by presenting the first attack on a production-grade object-detection model. Here, to enable any visibly identifiable leakage, we revert to the lenient inference mode setting and make multiple architectural modifications to increase model vulnerability, with the extent of required changes highlighting the strong inherent robustness of such architectures. We conclude this work by offering the first comprehensive mapping of settings, clarifying which combinations of architectural choices and operational modes meaningfully impact privacy. Our analysis provides actionable insight into when models are likely vulnerable, when they appear robust, and where subtle leakage may persist. Together, these findings reframe how gradient inversion risk should be assessed in future research and deployment scenarios.
- Abstract(参考訳): グラディエント・インバージョン・アタックは、フェデレート・ラーニングにおけるプライバシーを侵害する能力に注意を向けている。
しかし、多くの研究では、ドロップアウトのようなトレーニング時間動作が無効になり、バッチ正規化が固定統計に依存するような、推論モードでのモデルによる攻撃について検討している。
本研究では,アーキテクチャとトレーニングの振る舞いが脆弱性にどのように影響するかを系統的に分析し,推論モードクライアントの詳細な研究を行い,インバージョンを劇的に単純化することを示した。
より現実的な条件下での攻撃可能性を評価するため、我々は標準訓練モードで動作するクライアントに目を向ける。
この環境では、いくつかのアーキテクチャ条件が同時に満たされた場合にのみ、攻撃を成功させることが可能である。モデルが浅く広くなければならないこと、スキップ接続を使用すること、そして重要なことに、アクティベーション正規化を採用することである。
現実的な訓練条件下では,攻撃的知識の異なるトレーニングモードにおけるモデルに対する2つの新たな攻撃を導入し,最先端のパフォーマンスを実現する。
プロダクショングレードのオブジェクト検出モデルに対する最初の攻撃を提示することで、これらの取り組みを拡張します。
ここでは、視覚的に識別可能な漏洩を可能にするため、高機能な推論モード設定に戻り、モデル脆弱性を高めるために複数のアーキテクチャ修正を行い、必要な変更の程度は、そのようなアーキテクチャの強い固有のロバスト性を強調します。
アーキテクチャの選択と運用モードの組み合わせが、プライバシに有意義な影響を及ぼすかを明確にし、最初の包括的な設定マッピングを提供することで、この作業を締めくくります。
私たちの分析は、モデルがいつ脆弱であるか、いつ堅牢に見えるか、どのように微妙なリークが続くのかについて、実用的な洞察を提供する。
これらの知見は、将来の研究とデプロイメントのシナリオにおいて、勾配逆転のリスクがどのように評価されるべきかを再考する。
関連論文リスト
- Exploiting Edge Features for Transferable Adversarial Attacks in Distributed Machine Learning [54.26807397329468]
この研究は、分散ディープラーニングシステムにおいて、これまで見過ごされていた脆弱性を探究する。
中間的特徴をインターセプトする敵は、依然として深刻な脅威となる可能性がある。
本稿では,分散環境に特化して設計されたエクスプロイト戦略を提案する。
論文 参考訳(メタデータ) (2025-07-09T20:09:00Z) - SecureFed: A Two-Phase Framework for Detecting Malicious Clients in Federated Learning [0.0]
フェデレートラーニング(FL)は、モデルをトレーニングするための分散メソッドを提供しながら、データのプライバシを保護する。
分散スキーマのため、結果を変えたり、モデルのパフォーマンスを妨害したりできる敵のクライアントに感受性がある。
本研究では,攻撃者の影響を識別・低減する二相FLフレームワークSecureFedを提案する。
論文 参考訳(メタデータ) (2025-06-19T16:52:48Z) - Task-Agnostic Attacks Against Vision Foundation Models [12.487589700031661]
機械学習の実践者が利用可能なトレーニング済みのビジョン基礎モデルを採用するのが、標準のプラクティスになっている。
このような基盤モデルに対する攻撃の研究と、複数の下流タスクに対するその影響は、いまだに明らかにされていない。
本研究は,基本モデルを用いて得られた特徴表現を極大に破壊することにより,タスク非依存の敵例を定式化する汎用フレームワークを提案する。
論文 参考訳(メタデータ) (2025-03-05T19:15:14Z) - Unlearning Backdoor Threats: Enhancing Backdoor Defense in Multimodal Contrastive Learning via Local Token Unlearning [49.242828934501986]
マルチモーダルコントラスト学習は高品質な機能を構築するための強力なパラダイムとして登場した。
バックドア攻撃は 訓練中に モデルに 悪意ある行動を埋め込む
我々は,革新的なトークンベースの局所的忘れ忘れ学習システムを導入する。
論文 参考訳(メタデータ) (2024-03-24T18:33:15Z) - Bounding Reconstruction Attack Success of Adversaries Without Data
Priors [53.41619942066895]
機械学習(ML)モデルに対する再構成攻撃は、機密データの漏洩の強いリスクをもたらす。
本研究では,現実的な対角的環境下での再建成功に関する公式な上限を提供する。
論文 参考訳(メタデータ) (2024-02-20T09:52:30Z) - Enhancing Multiple Reliability Measures via Nuisance-extended
Information Bottleneck [77.37409441129995]
トレーニングデータに制限がある現実的なシナリオでは、データ内の多くの予測信号は、データ取得のバイアスからより多く得る。
我々は,相互情報制約の下で,より広い範囲の摂動をカバーできる敵の脅威モデルを考える。
そこで本研究では,その目的を実現するためのオートエンコーダベーストレーニングと,提案したハイブリッド識別世代学習を促進するための実用的なエンコーダ設計を提案する。
論文 参考訳(メタデータ) (2023-03-24T16:03:21Z) - Improving robustness of jet tagging algorithms with adversarial training [56.79800815519762]
本研究では,フレーバータグ付けアルゴリズムの脆弱性について,敵攻撃による検証を行った。
シミュレーション攻撃の影響を緩和する対人訓練戦略を提案する。
論文 参考訳(メタデータ) (2022-03-25T19:57:19Z) - Beyond Gradients: Exploiting Adversarial Priors in Model Inversion
Attacks [7.49320945341034]
協調的な機械学習設定は、敵の干渉や攻撃に影響を受けやすい。
そのような攻撃の1つのクラスはモデル反転攻撃と呼ばれ、表現を抽出するためにモデルをリバースエンジニアリングする敵によって特徴づけられる。
本稿では、勾配に基づくモデル反転攻撃の基礎の上に構築された新しいモデル反転フレームワークを提案する。
論文 参考訳(メタデータ) (2022-03-01T14:22:29Z) - Thief, Beware of What Get You There: Towards Understanding Model
Extraction Attack [13.28881502612207]
いくつかのシナリオでは、AIモデルはプロプライエタリに訓練され、事前に訓練されたモデルも十分な分散データも公開されていない。
既存の手法の有効性は,事前学習モデルの欠如に大きく影響している。
モデル抽出攻撃を、これらの要因を深層強化学習で捉える適応的フレームワークに定式化します。
論文 参考訳(メタデータ) (2021-04-13T03:46:59Z) - Explainable Adversarial Attacks in Deep Neural Networks Using Activation
Profiles [69.9674326582747]
本稿では,敵対的事例に基づくニューラルネットワークモデルを検討するためのビジュアルフレームワークを提案する。
これらの要素を観察することで、モデル内の悪用領域を素早く特定できることを示す。
論文 参考訳(メタデータ) (2021-03-18T13:04:21Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。