論文の概要: Gradient Inversion Transcript: Leveraging Robust Generative Priors to Reconstruct Training Data from Gradient Leakage
- arxiv url: http://arxiv.org/abs/2505.20026v1
- Date: Mon, 26 May 2025 14:17:00 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-05-27 16:58:43.498971
- Title: Gradient Inversion Transcript: Leveraging Robust Generative Priors to Reconstruct Training Data from Gradient Leakage
- Title(参考訳): Gradient Inversion Transcript: Gradient Leakageからトレーニングデータを再構築するためのRobust生成優先順位を活用する
- Authors: Xinping Chen, Chen Liu,
- Abstract要約: Gradient Inversion Transcript (GIT) は、リークした勾配からトレーニングデータを再構成するための新しい生成手法である。
GITは、既存のメソッドを複数のデータセットで一貫して上回る。
- 参考スコア(独自算出の注目度): 3.012404329139943
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We propose Gradient Inversion Transcript (GIT), a novel generative approach for reconstructing training data from leaked gradients. GIT employs a generative attack model, whose architecture is tailored to align with the structure of the leaked model based on theoretical analysis. Once trained offline, GIT can be deployed efficiently and only relies on the leaked gradients to reconstruct the input data, rendering it applicable under various distributed learning environments. When used as a prior for other iterative optimization-based methods, GIT not only accelerates convergence but also enhances the overall reconstruction quality. GIT consistently outperforms existing methods across multiple datasets and demonstrates strong robustness under challenging conditions, including inaccurate gradients, data distribution shifts and discrepancies in model parameters.
- Abstract(参考訳): リーク勾配からトレーニングデータを再構成するための新しい生成手法であるGIT(Gradient Inversion Transcript)を提案する。
GITは生成的攻撃モデルを採用しており、そのアーキテクチャは理論解析に基づいてリークモデルの構造に合わせて調整されている。
トレーニングされたオフラインでは、GITは効率よくデプロイでき、入力データを再構築するためにリークした勾配のみに依存するため、さまざまな分散学習環境に適用できる。
他の反復最適化手法の先行として使用される場合、GITは収束を加速するだけでなく、全体の再構築品質も向上する。
GITは、複数のデータセットにまたがる既存のメソッドを一貫して上回り、不正確な勾配、データ分散シフト、モデルのパラメータの相違など、困難な条件下で強力な堅牢性を示す。
関連論文リスト
- Optimal Defenses Against Gradient Reconstruction Attacks [13.728704430883987]
Federated Learning (FL) は、集中型データストレージを使わずに、協調的なモデルトレーニングによってデータ漏洩を防止するように設計されている。
共有勾配から元のトレーニングデータを復元する勾配再構築攻撃には、依然として脆弱である。
論文 参考訳(メタデータ) (2024-11-06T08:22:20Z) - Towards Robust Out-of-Distribution Generalization: Data Augmentation and Neural Architecture Search Approaches [4.577842191730992]
我々は、ディープラーニングのための堅牢なOoD一般化への道を探る。
まず,認識に必須でない特徴間の素早い相関を解消するための,新しい効果的なアプローチを提案する。
次に,OoDシナリオにおけるニューラルアーキテクチャ探索の強化問題について検討する。
論文 参考訳(メタデータ) (2024-10-25T20:50:32Z) - Adaptive Gradient Clipping for Robust Federated Learning [8.268485501864939]
本稿では,適応型クリッピング戦略である適応ロバストクリッピング(ARC)を提案し,入力勾配に基づいて動的にクリッピング閾値を調整する。
ARCは、特に高度に異質で対向的な設定において、ロバスト性を大幅に向上させる。
論文 参考訳(メタデータ) (2024-05-23T11:00:31Z) - Temporal Gradient Inversion Attacks with Robust Optimization [18.166835997248658]
フェデレートラーニング(FL)は、プライベートデータを共有せずに協調的なモデルトレーニングのための有望なアプローチとして登場した。
グラディエント・インバージョン・アタック(GIA)は、交換された勾配からローカルクライアントが保持するプライベートデータを再構築するために提案されている。
プライベートデータを復元する一方で、データ次元とモデルの複雑さが増加し、GAAによるデータの再構築が妨げられる。
複数の時間勾配を利用して、事前の知識なしにプライベートデータを復元するTGIAs-ROを提案する。
論文 参考訳(メタデータ) (2023-06-13T16:21:34Z) - Universal Domain Adaptation from Foundation Models: A Baseline Study [58.51162198585434]
基礎モデルを用いた最先端UniDA手法の実証的研究を行った。
CLIPモデルからターゲット知識を抽出するためのパラメータフリーな手法であるtextitCLIP 蒸留を導入する。
単純な手法ではあるが、ほとんどのベンチマークタスクでは従来の手法よりも優れている。
論文 参考訳(メタデータ) (2023-05-18T16:28:29Z) - Minimizing the Accumulated Trajectory Error to Improve Dataset
Distillation [151.70234052015948]
本稿では,フラットな軌道を求める最適化アルゴリズムを提案する。
合成データに基づいてトレーニングされた重みは、平坦な軌道への正規化を伴う累積誤差摂動に対して頑健であることを示す。
本手法はFTD (Flat Trajectory Distillation) と呼ばれ, 勾配整合法の性能を最大4.7%向上させる。
論文 参考訳(メタデータ) (2022-11-20T15:49:11Z) - CAFE: Learning to Condense Dataset by Aligning Features [72.99394941348757]
本稿ではCAFE(Aligning features)によるCondenseデータセットの新しいスキームを提案する。
このアプローチの核心は、さまざまなスケールにわたる実データと合成データから機能を整合させる効果的な戦略です。
提案したCAFEを様々なデータセットで検証し,概ね最先端技術であることを示す。
論文 参考訳(メタデータ) (2022-03-03T05:58:49Z) - Extrapolation for Large-batch Training in Deep Learning [72.61259487233214]
我々は、バリエーションのホストが、我々が提案する統一されたフレームワークでカバー可能であることを示す。
本稿では,この手法の収束性を証明し,ResNet,LSTM,Transformer上での経験的性能を厳格に評価する。
論文 参考訳(メタデータ) (2020-06-10T08:22:41Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。