論文の概要: MAGIA: Sensing Per-Image Signals from Single-Round Averaged Gradients for Label-Inference-Free Gradient Inversion
- arxiv url: http://arxiv.org/abs/2509.18170v1
- Date: Wed, 17 Sep 2025 11:32:15 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-09-24 20:41:27.44805
- Title: MAGIA: Sensing Per-Image Signals from Single-Round Averaged Gradients for Label-Inference-Free Gradient Inversion
- Title(参考訳): MAGIA:ラベル推論自由勾配インバージョンのための単線平均勾配からの画像信号検出
- Authors: Zhanting Zhou, Jinbo Wang, Zeqin Wu, Fengli Zhang,
- Abstract要約: 我々は、新しいラベルフリーフレームワークであるMAGIAを、勾配反転攻撃のモーメントに基づく適応補正として導入する。
MAGIAは、大規模なバッチシナリオにおいて、高忠実度マルチイメージ再構成を実現するための高度な手法を著しく上回っている。
- 参考スコア(独自算出の注目度): 3.3772360459269817
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: We study gradient inversion in the challenging single round averaged gradient SAG regime where per sample cues are entangled within a single batch mean gradient. We introduce MAGIA a momentum based adaptive correction on gradient inversion attack a novel label inference free framework that senses latent per image signals by probing random data subsets. MAGIA objective integrates two core innovations 1 a closed form combinatorial rescaling that creates a provably tighter optimization bound and 2 a momentum based mixing of whole batch and subset losses to ensure reconstruction robustness. Extensive experiments demonstrate that MAGIA significantly outperforms advanced methods achieving high fidelity multi image reconstruction in large batch scenarios where prior works fail. This is all accomplished with a computational footprint comparable to standard solvers and without requiring any auxiliary information.
- Abstract(参考訳): 本研究では,単一バッチ平均勾配内でサンプルキューが絡み合う単一ラウンド平均勾配SAG方式の勾配インバージョンについて検討した。
本稿では,無作為なデータサブセットを探索することにより,画像信号ごとの潜伏を検知する新しいラベル推論フリーフレームワークであるMAGIAを,モーメントに基づく適応補正として導入する。
MAGIA の目的は、2つのコアイノベーション 1 をクローズドフォームの組合せ再スケーリングに統合し、それによってより厳密な最適化バウンドが生成され、2 を全バッチとサブセットの損失の運動量に基づく混合により、再構築の堅牢性を保証する。
大規模な実験により、MAGIAは先行作業が失敗する大規模バッチシナリオにおいて、高忠実度マルチイメージ再構成を実現するための高度な手法を著しく上回っていることが示された。
これはすべて、標準的な解法に匹敵する計算フットプリントで達成され、補助的な情報を必要としない。
関連論文リスト
- DGSolver: Diffusion Generalist Solver with Universal Posterior Sampling for Image Restoration [49.16449955997501]
bfDGrは、普遍的な後続サンプリングを持つ拡散解法である。
コードとモデルはhttps://github.com/MiliLab/DGr.comから入手できる。
論文 参考訳(メタデータ) (2025-04-30T10:12:48Z) - Towards Anomaly-Aware Pre-Training and Fine-Tuning for Graph Anomaly Detection [59.042018542376596]
グラフ異常検出(GAD)は近年注目度が高まりつつあるが、2つの重要な要因があるため、依然として困難である。
Anomaly-Aware Pre-Training and Fine-Tuning (APF)は、GADの課題を軽減するためのフレームワークである。
10のベンチマークデータセットに関する総合的な実験は、最先端のベースラインと比較してAPFの優れたパフォーマンスを検証する。
論文 参考訳(メタデータ) (2025-04-19T09:57:35Z) - Effective Dimension Aware Fractional-Order Stochastic Gradient Descent for Convex Optimization Problems [2.5971517743176915]
データ駆動方式で分数指数を適応する2SED分数次勾配Descent (2SEDFOSGD)を提案する。
理論的には、この手法は、na"ive fractional SGD"で観察されるスラグや不安定な振る舞いを伴わない分数記憶の利点を保っている。
論文 参考訳(メタデータ) (2025-03-17T22:57:37Z) - Gradient Normalization Provably Benefits Nonconvex SGD under Heavy-Tailed Noise [60.92029979853314]
重み付き雑音下でのグラディエントDescence(SGD)の収束を確実にする上での勾配正規化とクリッピングの役割について検討する。
我々の研究は、重尾雑音下でのSGDの勾配正規化の利点を示す最初の理論的証拠を提供する。
我々は、勾配正規化とクリッピングを取り入れた加速SGD変種を導入し、さらに重み付き雑音下での収束率を高めた。
論文 参考訳(メタデータ) (2024-10-21T22:40:42Z) - Towards Eliminating Hard Label Constraints in Gradient Inversion Attacks [88.12362924175741]
グラディエント・インバージョン・アタックは、フェデレート学習フレームワークで公開された中間勾配から局所的なトレーニングデータを再構築することを目的としている。
以前のメソッドは、単一のデータポイントの再構築から始まり、単一イメージの制限をバッチレベルに緩和することから始まり、ハードラベルの制約の下でのみテストされる。
単入力勾配から最後の完全連結層の入力特徴と地下構造ラベルを同時に復元する新しいアルゴリズムを最初に開始する。
論文 参考訳(メタデータ) (2024-02-05T15:51:34Z) - vSHARP: variable Splitting Half-quadratic Admm algorithm for Reconstruction of inverse-Problems [7.043932618116216]
vSHARP (variable Splitting Half-quadratic ADMM algorithm for Reconstruction of inverse Problems) は、医学的イメージング(MI)における不適切な逆問題の解法である。
データ一貫性のために、vSHARPは画像領域で微分勾配降下過程をアンロールし、一方、U-NetアーキテクチャのようなDLベースのデノイザは画質を高めるために適用される。
我々の最先端手法との比較分析は,これらの応用におけるvSHARPの優れた性能を示すものである。
論文 参考訳(メタデータ) (2023-09-18T17:26:22Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。