論文の概要: TIP: Resisting Gradient Inversion via Targeted Interpretable Perturbation in Federated Learning
- arxiv url: http://arxiv.org/abs/2602.11633v1
- Date: Thu, 12 Feb 2026 06:32:49 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-02-13 21:07:25.67715
- Title: TIP: Resisting Gradient Inversion via Targeted Interpretable Perturbation in Federated Learning
- Title(参考訳): TIP:フェデレートラーニングにおけるターゲット型解釈型摂動によるグラディエント・インバージョン
- Authors: Jianhua Wang, Yinlin Su,
- Abstract要約: フェデレートラーニング(FL)は、データの局所性を維持しながら協調的なモデルトレーニングを促進する。
勾配の交換により、システムはグラディエント・インバージョン・アタック(GIAs)に弱い。
本稿では、モデル解釈可能性と周波数領域解析を統合する新しい防御フレームワークTIPを提案する。
- 参考スコア(独自算出の注目度): 8.156452885913108
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Federated Learning (FL) facilitates collaborative model training while preserving data locality; however, the exchange of gradients renders the system vulnerable to Gradient Inversion Attacks (GIAs), allowing adversaries to reconstruct private training data with high fidelity. Existing defenses, such as Differential Privacy (DP), typically employ indiscriminate noise injection across all parameters, which severely degrades model utility and convergence stability. To address those limitation, we proposes Targeted Interpretable Perturbation (TIP), a novel defense framework that integrates model interpretability with frequency domain analysis. Unlike conventional methods that treat parameters uniformly, TIP introduces a dual-targeting strategy. First, leveraging Gradient-weighted Class Activation Mapping (Grad-CAM) to quantify channel sensitivity, we dynamically identify critical convolution channels that encode primary semantic features. Second, we transform these selected kernels into the frequency domain via the Discrete Fourier Transform and selectively inject calibrated perturbations into the high-frequency spectrum. By selectively perturbing high-frequency components, TIP effectively destroys the fine-grained details necessary for image reconstruction while preserving the low-frequency information crucial for model accuracy. Extensive experiments on benchmark datasets demonstrate that TIP renders reconstructed images visually unrecognizable against state-of-the-art GIAs, while maintaining global model accuracy comparable to non-private baselines, significantly outperforming existing DP-based defenses in the privacy-utility trade-off and interpretability. Code is available in https://github.com/2766733506/asldkfjssdf_arxiv
- Abstract(参考訳): フェデレートラーニング(FL)は、データの局所性を保ちながら協調的なモデルトレーニングを促進するが、勾配の交換により、システムはグラディエント・インバージョン・アタック(GIA)に脆弱になり、敵は高い忠実度でプライベートトレーニングデータを再構築することができる。
差別化プライバシ(DP)のような既存の防御は、通常、すべてのパラメータに対して無差別なノイズ注入を使用し、モデルの有用性と収束安定性を著しく低下させる。
このような制限に対処するため、我々は、モデル解釈可能性と周波数領域解析を統合する新しい防御フレームワークであるTIP(Targeted Interpretable Perturbation)を提案する。
パラメータを均一に扱う従来の方法とは異なり、TIPはデュアルターゲット戦略を導入する。
まず、グラディエント重み付きクラスアクティベーションマッピング(Grad-CAM)を利用してチャネルの感度を定量化し、主要な意味的特徴を符号化する重要な畳み込みチャネルを動的に同定する。
次に、これらの選択されたカーネルを離散フーリエ変換により周波数領域に変換し、高周波数スペクトルに校正摂動を選択的に注入する。
選択的に高周波成分を摂動させることにより、TIPはモデル精度に不可欠な低周波情報を保持しながら、画像再構成に必要な微細な詳細を効果的に破壊する。
ベンチマークデータセットに対する大規模な実験により、TIPは、最先端のGIAに対して視覚的に認識できない再構成イメージをレンダリングする一方で、非プライベートベースラインに匹敵するグローバルモデル精度を維持し、プライバシとユーティリティのトレードオフと解釈可能性において、既存のDPベースの防御を著しく上回ります。
コードはhttps://github.com/2766733506/asldkfjssdf_arxivで入手できる。
関連論文リスト
- An Adaptive Differentially Private Federated Learning Framework with Bi-level Optimization [10.218291445871435]
フェデレーション学習は、データプライバシを保持しながら、分散クライアント間で協調的なモデルトレーニングを可能にする。
実際の展開では、デバイスの不均一性、非独立性、および同一に分散された(Non-IID)データは、しばしば非常に不安定で偏りのある勾配更新をもたらす。
異種およびプライバシー制約のある環境下でモデル効率を明示的に目標とする適応型微分プライベートなフェデレーション学習フレームワークを提案する。
論文 参考訳(メタデータ) (2026-02-06T16:27:33Z) - Protecting Deep Neural Network Intellectual Property with Chaos-Based White-Box Watermarking [2.667401221288548]
ディープニューラルネットワーク(DNN)の急速な普及により、知的財産権(IP)保護とモデル誤用に関する懸念が高まっている。
DNNの内部パラメータにオーナシップ情報を埋め込む,効率的でレジリエントなホワイトボックス透かしフレームワークを提案する。
提案手法は,ホワイトボックス設定にモデルオーナシップを組み込んで検証するための,フレキシブルでスケーラブルなソリューションを提供する。
論文 参考訳(メタデータ) (2025-12-18T15:26:50Z) - Supervised Contrastive Machine Unlearning of Background Bias in Sonar Image Classification with Fine-Grained Explainable AI [1.4610038284393168]
音響ソナー画像解析は、物体の検出と分類において重要な役割を果たす。
高精度を実現する既存のAIモデルは、しばしば海底の特徴に過度に依存し、一般化が不十分になる。
i) 海底による背景バイアスを低減するために従来の三重項損失を拡大するTCUモジュール,(ii) 浮き彫りソナーフレームワーク(UESF) という2つの重要なモジュールを統合した新しいフレームワークを提案する。
論文 参考訳(メタデータ) (2025-12-01T05:25:34Z) - Knowledge-Informed Neural Network for Complex-Valued SAR Image Recognition [51.03674130115878]
本稿では,新しい「圧縮集約圧縮」アーキテクチャ上に構築された軽量なフレームワークであるKnowledge-Informed Neural Network(KINN)を紹介する。
KINNはパラメータ効率の認識における最先端を確立し、データスカースとアウト・オブ・ディストリビューションのシナリオにおいて例外的な一般化を提供する。
論文 参考訳(メタデータ) (2025-10-23T07:12:26Z) - Model Inversion Attacks Through Target-Specific Conditional Diffusion Models [54.69008212790426]
モデル反転攻撃(MIA)は、ターゲット分類器のトレーニングセットからプライベートイメージを再構築することを目的としており、それによってAIアプリケーションにおけるプライバシー上の懸念が高まる。
従来のGANベースのMIAは、GANの固有の欠陥と潜伏空間における最適化の偏りにより、劣った遺伝子的忠実度に悩まされる傾向にある。
これらの問題を緩和するために拡散モデル反転(Diff-MI)攻撃を提案する。
論文 参考訳(メタデータ) (2024-07-16T06:38:49Z) - GIFD: A Generative Gradient Inversion Method with Feature Domain
Optimization [52.55628139825667]
Federated Learning(FL)は、クライアントのプライバシを保護するための有望な分散機械学習フレームワークとして登場した。
近年の研究では、事前学習された生成逆ネットワーク(GAN)を事前知識として活用することにより、攻撃者が共有勾配を逆転し、FLシステムに対する機密データを回復できることが示されている。
textbfGradient textbfInversion over textbfFeature textbfDomains (GIFD)を提案する。
論文 参考訳(メタデータ) (2023-08-09T04:34:21Z) - Fourier Test-time Adaptation with Multi-level Consistency for Robust
Classification [10.291631977766672]
本稿では,Fourier Test-Time Adaptation (FTTA) と呼ばれる新しい手法を提案する。
FTTAは、予測の自己監督を行うために、ペア入力の信頼性の高い多レベル整合性測定を構築する。
異なる形態と器官を持つ3つの大きな分類データセットで広範囲に検証された。
論文 参考訳(メタデータ) (2023-06-05T02:29:38Z) - Securing Distributed SGD against Gradient Leakage Threats [13.979995939926154]
本稿では, 勾配漏れ弾性分布勾配Descent (SGD) に対する総合的アプローチを提案する。
プライバシー強化型フェデレーション学習の2つの方法として, (i) ランダム選択や低ランクフィルタリングによるグラデーションプルーニング, (ii) 付加的ランダムノイズや差分プライバシーノイズによる勾配摂動について分析した。
本稿では,分散SGDをフェデレート学習において確保するための勾配リーク耐性手法を提案する。
論文 参考訳(メタデータ) (2023-05-10T21:39:27Z) - Treatment Learning Causal Transformer for Noisy Image Classification [62.639851972495094]
本研究では,この2値情報「ノイズの存在」を画像分類タスクに組み込んで予測精度を向上させる。
因果的変動推定から動機付け,雑音画像分類のための頑健な特徴表現を潜在生成モデルを用いて推定するトランスフォーマーに基づくアーキテクチャを提案する。
また、パフォーマンスベンチマークのための幅広いノイズ要素を取り入れた、新しいノイズの多い画像データセットも作成する。
論文 参考訳(メタデータ) (2022-03-29T13:07:53Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。