論文の概要: Non-Linear Trajectory Modeling for Multi-Step Gradient Inversion Attacks in Federated Learning
- arxiv url: http://arxiv.org/abs/2509.22082v1
- Date: Fri, 26 Sep 2025 09:04:25 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-09-29 20:57:54.317771
- Title: Non-Linear Trajectory Modeling for Multi-Step Gradient Inversion Attacks in Federated Learning
- Title(参考訳): フェデレートラーニングにおける多段階勾配インバージョンアタックの非線形軌道モデリング
- Authors: Li Xia, Zheng Liu, Sili Huang, Wei Tang, Xuan Liu,
- Abstract要約: グラディエント・インバージョン・アタック(GIA)に対する非線形パラメトリック・トラジェクトリ・モデリングを導入する最初の方法であるNL-SME(Non-Linear Surrogate Model Extension)を提案する。
提案手法は,SGDの曲線特性を制御点から捉えた学習可能な2次B'ezier曲線に置き換え,正規化とdvecスケーリング機構を併用して表現性を向上する。
- 参考スコア(独自算出の注目度): 16.19043018432204
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Federated Learning (FL) preserves privacy by keeping raw data local, yet Gradient Inversion Attacks (GIAs) pose significant threats. In FedAVG multi-step scenarios, attackers observe only aggregated gradients, making data reconstruction challenging. Existing surrogate model methods like SME assume linear parameter trajectories, but we demonstrate this severely underestimates SGD's nonlinear complexity, fundamentally limiting attack effectiveness. We propose Non-Linear Surrogate Model Extension (NL-SME), the first method to introduce nonlinear parametric trajectory modeling for GIAs. Our approach replaces linear interpolation with learnable quadratic B\'ezier curves that capture SGD's curved characteristics through control points, combined with regularization and dvec scaling mechanisms for enhanced expressiveness. Extensive experiments on CIFAR-100 and FEMNIST datasets show NL-SME significantly outperforms baselines across all metrics, achieving order-of-magnitude improvements in cosine similarity loss while maintaining computational efficiency.This work exposes heightened privacy vulnerabilities in FL's multi-step update paradigm and offers novel perspectives for developing robust defense strategies.
- Abstract(参考訳): フェデレートラーニング(FL)は、生データをローカルに保持することでプライバシを保存するが、グラディエント・インバージョン・アタック(GIA)は重大な脅威となる。
FedAVGのマルチステップシナリオでは、攻撃者は集約された勾配のみを観察し、データの再構築を難しくする。
SMEのような既存のサロゲートモデル手法は線形パラメータ軌道を仮定するが、これはSGDの非線形複雑性を著しく過小評価しており、基本的に攻撃効果を制限している。
GIAに対する非線形パラメトリック軌道モデルを導入する最初の方法である非線形サーロゲートモデル拡張(NL-SME)を提案する。
提案手法は線形補間を学習可能な二次的B\'ezier曲線に置き換え,SGDの曲線特性を制御点から捉え,正規化とdvecスケーリング機構を組み合わせて表現性を向上させる。
CIFAR-100とFEMNISTデータセットの大規模な実験により、NL-SMEは、計算効率を保ちながらコサイン類似性損失のオーダー・オブ・マグニチュードの改善を実現し、FLのマルチステップ更新パラダイムにおけるプライバシーの脆弱性を高め、堅牢な防衛戦略を開発するための新たな視点を提供する。
関連論文リスト
- Federated Loss Exploration for Improved Convergence on Non-IID Data [20.979550470097823]
Federated Loss Exploration (FedLEx)は、これらの課題に対処するために特別に設計された革新的なアプローチである。
FedLExは、既存のFLメソッドの非IID設定における欠点に特化している。
最先端のFLアルゴリズムによる実験により,性能が大幅に向上した。
論文 参考訳(メタデータ) (2025-06-23T13:42:07Z) - A Simplified Analysis of SGD for Linear Regression with Weight Averaging [64.2393952273612]
最近の研究は、定常学習率を用いた線形回帰におけるSGD最適化のためのシャープレートを提供する。
簡単な線形代数ツールを用いて,2021ベニグニグニグニグニグニグニグニグニグニグニグニグニグニグニグニグニグニグニグニグニグニグニグニグナグニグニグニグニグニグニグニグニグニグニグネグニグニグニグニグネグニグニグネグニ
我々の研究は線形回帰の勾配勾配を非常に容易に解析し、ミニバッチと学習率のスケジューリングのさらなる分析に役立てることができると信じている。
論文 参考訳(メタデータ) (2025-06-18T15:10:38Z) - Interpretable Deep Regression Models with Interval-Censored Failure Time Data [1.2993568435938014]
間隔制限付きデータの深層学習手法は、まだ探索が過小評価されており、特定のデータタイプやモデルに限られている。
本研究は、部分線形変換モデルの幅広いクラスを持つ区間知覚データに対する一般的な回帰フレームワークを提案する。
我々の手法をアルツハイマー病神経イメージングイニシアチブデータセットに適用すると、従来のアプローチと比較して新しい洞察と予測性能が向上する。
論文 参考訳(メタデータ) (2025-03-25T15:27:32Z) - Enhancing Robustness of Vision-Language Models through Orthogonality Learning and Self-Regularization [77.62516752323207]
そこで本研究では,事前訓練した重みを効率よく微調整する直交微調整法を導入し,頑健さと一般化の強化を実現した。
自己正規化戦略は、OrthSRと呼ばれるVLMのゼロショット一般化の観点から安定性を維持するためにさらに活用される。
筆者らはCLIPとCoOpを再検討し,少数の画像のクラスフィシエーションシナリオにおけるモデルの改善を効果的に行う。
論文 参考訳(メタデータ) (2024-07-11T10:35:53Z) - Adaptive debiased SGD in high-dimensional GLMs with streaming data [4.704144189806667]
本稿では,高次元一般化線形モデルにおけるオンライン推論に対する新しいアプローチを提案する。
提案手法は単一パスモードで動作し,全データセットアクセスや大次元要約統計ストレージを必要とする既存手法とは異なる。
我々の方法論的革新の核心は、動的目的関数に適した適応的降下アルゴリズムと、新しいオンラインデバイアス処理である。
論文 参考訳(メタデータ) (2024-05-28T15:36:48Z) - Learn from the Past: A Proxy Guided Adversarial Defense Framework with
Self Distillation Regularization [53.04697800214848]
敵対的訓練(AT)は、ディープラーニングモデルの堅牢性を固める上で重要な要素である。
AT方式は、目標モデルの防御のために直接反復的な更新を頼りにしており、不安定な訓練や破滅的なオーバーフィッティングといった障害に頻繁に遭遇する。
汎用プロキシガイド型防衛フレームワークLAST(bf Pbf astから学ぶ)を提案する。
論文 参考訳(メタデータ) (2023-10-19T13:13:41Z) - Federated Coordinate Descent for Privacy-Preserving Multiparty Linear
Regression [0.5049057348282932]
我々は、FCDと呼ばれる新しい分散スキームであるFederated Coordinate Descentを紹介し、マルチパーティシナリオ下でこの問題に安全に対処する。
具体的には、セキュアな集約と追加の摂動により、(1)ローカル情報が他の当事者にリークされることがなく、(2)グローバルモデルパラメータがクラウドサーバに公開されることが保証される。
また,FCD方式は, 線形, リッジ, ラッソ回帰などの一般線形回帰に適用可能であることを示す。
論文 参考訳(メタデータ) (2022-09-16T03:53:46Z) - Improving Generalization via Uncertainty Driven Perturbations [107.45752065285821]
トレーニングデータポイントの不確実性による摂動について考察する。
損失駆動摂動とは異なり、不確実性誘導摂動は決定境界を越えてはならない。
線形モデルにおいて,UDPがロバスト性マージン決定を達成することが保証されていることを示す。
論文 参考訳(メタデータ) (2022-02-11T16:22:08Z) - Extrapolation for Large-batch Training in Deep Learning [72.61259487233214]
我々は、バリエーションのホストが、我々が提案する統一されたフレームワークでカバー可能であることを示す。
本稿では,この手法の収束性を証明し,ResNet,LSTM,Transformer上での経験的性能を厳格に評価する。
論文 参考訳(メタデータ) (2020-06-10T08:22:41Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。