論文の概要: Generative Model Inversion Through the Lens of the Manifold Hypothesis
- arxiv url: http://arxiv.org/abs/2509.20177v1
- Date: Wed, 24 Sep 2025 14:39:25 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-09-25 20:53:19.853343
- Title: Generative Model Inversion Through the Lens of the Manifold Hypothesis
- Title(参考訳): マニフォールド仮説のレンズによる生成モデルインバージョン
- Authors: Xiong Peng, Bo Han, Fengfei Yu, Tongliang Liu, Feng Liu, Mingyuan Zhou,
- Abstract要約: モデル反転攻撃(MIA)は、訓練されたモデルからクラス表現型サンプルを再構成することを目的としている。
最近の生成的MIAは、生成的敵ネットワークを使用して、反転過程を導く画像の事前学習を行う。
- 参考スコア(独自算出の注目度): 98.37040155914595
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Model inversion attacks (MIAs) aim to reconstruct class-representative samples from trained models. Recent generative MIAs utilize generative adversarial networks to learn image priors that guide the inversion process, yielding reconstructions with high visual quality and strong fidelity to the private training data. To explore the reason behind their effectiveness, we begin by examining the gradients of inversion loss with respect to synthetic inputs, and find that these gradients are surprisingly noisy. Further analysis reveals that generative inversion implicitly denoises these gradients by projecting them onto the tangent space of the generator manifold, filtering out off-manifold components while preserving informative directions aligned with the manifold. Our empirical measurements show that, in models trained with standard supervision, loss gradients often exhibit large angular deviations from the data manifold, indicating poor alignment with class-relevant directions. This observation motivates our central hypothesis: models become more vulnerable to MIAs when their loss gradients align more closely with the generator manifold. We validate this hypothesis by designing a novel training objective that explicitly promotes such alignment. Building on this insight, we further introduce a training-free approach to enhance gradient-manifold alignment during inversion, leading to consistent improvements over state-of-the-art generative MIAs.
- Abstract(参考訳): モデル反転攻撃(MIA)は、訓練されたモデルからクラス表現型サンプルを再構成することを目的としている。
近年のMIAは、生成的対向ネットワークを利用して、逆転過程を導く画像の事前学習を行い、高い視覚的品質と強い忠実さで、プライベートトレーニングデータに再構成をもたらす。
これらの効果の背景にある理由を探るため、まず、合成入力に対する反転損失の勾配を調べ、これらの勾配が驚くほどノイズであることを示す。
さらなる解析により、生成的逆転は、これらの勾配を生成多様体の接空間に射影し、多様体に整列した情報的方向を保ちながら、非多様体成分をフィルタリングすることによって暗黙的に無視することが明らかとなる。
実験により、標準監督法で訓練されたモデルでは、損失勾配はデータ多様体からの大きな角偏差を示し、クラス関連方向との整合性が低いことを示している。
モデルは、損失勾配がジェネレータ多様体とより密接に一致するときに、MIAに対してより脆弱になる。
このようなアライメントを明確に促進する新たなトレーニング目標を設計することで、この仮説を検証する。
この知見に基づいて、インバージョン中の勾配行列アライメントを強化するためのトレーニング不要なアプローチを導入し、最先端のMIAに対して一貫した改善をもたらす。
関連論文リスト
- Understanding Degradation with Vision Language Model [56.09241449206817]
視覚的劣化を理解することは、コンピュータビジョンにおいて重要な問題であるが、難しい問題である。
本稿では,教師付き微調整と強化学習を併用したマルチモーダル・チェーン・オブ・ソート・モデルであるDU-VLMを紹介する。
また,110,000個のクリーン劣化ペアと接地された物理アノテーションからなる大規模データセットである textbfDU-110k も導入した。
論文 参考訳(メタデータ) (2026-02-04T13:51:15Z) - Transformer Is Inherently a Causal Learner [27.79148022495734]
自己回帰的に訓練されたトランスフォーマーは,時間遅れの因果構造を自然に符号化することを示す。
この関係を理論的に標準的な識別可能性条件下で証明する。
このアプローチは最先端の発見アルゴリズムの性能を大幅に上回る。
論文 参考訳(メタデータ) (2026-01-09T09:10:04Z) - Taming Preference Mode Collapse via Directional Decoupling Alignment in Diffusion Reinforcement Learning [27.33241821967005]
本稿では,PMC(Preference Mode Collapse)を緩和する新しいフレームワークを提案する。
D$2$-Alignは、人間の好みと優れた整合性を達成する。
論文 参考訳(メタデータ) (2025-12-30T11:17:52Z) - Enhanced Privacy Leakage from Noise-Perturbed Gradients via Gradient-Guided Conditional Diffusion Models [26.493235454865538]
フェデレーション学習は、勾配伝達と集約を通じてモデルを同期させる。
これらの勾配は、センシティブなトレーニングデータが組み込まれているため、プライバシー上の重大なリスクをもたらす。
既存の勾配反転攻撃は、雑音によって勾配が乱されるとき、大幅に劣化した復元性能に悩まされる。
論文 参考訳(メタデータ) (2025-11-13T15:43:45Z) - Performance of Machine Learning Methods for Gravity Inversion: Successes and Challenges [0.0]
機械学習の最近の進歩は、重力反転のためのデータ駆動アプローチを動機付けている。
まず、重力異常を直接密度場にマッピングするように訓練された畳み込みニューラルネットワークを設計する。
生成モデルをさらに研究するために,変分オートエンコーダ(VAE)とGAN(Generative Adversarial Networks)を用いる。
論文 参考訳(メタデータ) (2025-09-28T19:19:07Z) - Sparsity-Driven Parallel Imaging Consistency for Improved Self-Supervised MRI Reconstruction [2.8237889121096034]
本稿では,PD-DLネットワークを慎重に設計した摂動を用いてトレーニングする方法を提案する。
提案手法は,アーティファクトのエイリアスを効果的に低減し,高加速速度での雑音増幅を緩和することを示す。
論文 参考訳(メタデータ) (2025-05-30T02:11:25Z) - One-for-More: Continual Diffusion Model for Anomaly Detection [63.50488826645681]
異常検出法は拡散モデルを用いて任意の異常画像が与えられたときの正常サンプルの生成または再構成を行う。
われわれは,拡散モデルが「重度忠実幻覚」と「破滅的な忘れ」に悩まされていることを発見した。
本研究では,安定な連続学習を実現するために勾配予測を用いた連続拡散モデルを提案する。
論文 参考訳(メタデータ) (2025-02-27T07:47:27Z) - Oscillation Inversion: Understand the structure of Large Flow Model through the Lens of Inversion Method [60.88467353578118]
実世界のイメージを逆転させる固定点インスパイアされた反復的アプローチは収束を達成せず、異なるクラスタ間で振動することを示す。
本稿では,画像強調,ストロークベースのリカラー化,および視覚的プロンプト誘導画像編集を容易にする,シンプルで高速な分布転送手法を提案する。
論文 参考訳(メタデータ) (2024-11-17T17:45:37Z) - Manifold Integrated Gradients: Riemannian Geometry for Feature Attribution [8.107199775668942]
Integrated Gradients (IG)は、ブラックボックス深層学習モデルの一般的な特徴属性法である。
我々は、IGに関連する2つの主要な課題に対処する。ノイズの多い特徴可視化の生成と、敵の帰属攻撃に対する脆弱性である。
提案手法は,データ多様体の内在的幾何とより密接に関連し,経路に基づく特徴属性の適応を伴う。
論文 参考訳(メタデータ) (2024-05-16T04:13:17Z) - Minusformer: Improving Time Series Forecasting by Progressively Learning Residuals [14.741951369068877]
ユビキタス時系列(TS)予測モデルでは,過度なオーバーフィッティングが生じる傾向にある。
本稿では,深層的なブースティング・アンサンブル学習手法である二重ストリーム・サブトラクション機構を提案する。
提案手法は既存の最先端手法よりも優れており,各データセットの平均性能は11.9%向上した。
論文 参考訳(メタデータ) (2024-02-04T03:54:31Z) - Low-rank Tensor Assisted K-space Generative Model for Parallel Imaging
Reconstruction [14.438899814473446]
並列画像再構成のための低ランクテンソル支援k空間生成モデル(LR-KGM)を提案する。
これは、学習のための元の事前情報を高次元の事前情報に変換することを意味する。
実験により, LR-KGM法は高い性能を示した。
論文 参考訳(メタデータ) (2022-12-11T13:34:43Z) - Self-Supervised Training with Autoencoders for Visual Anomaly Detection [61.62861063776813]
我々は, 正規サンプルの分布を低次元多様体で支持する異常検出において, 特定のユースケースに焦点を当てた。
我々は、訓練中に識別情報を活用する自己指導型学習体制に適応するが、通常の例のサブ多様体に焦点をあてる。
製造領域における視覚異常検出のための挑戦的なベンチマークであるMVTec ADデータセットで、最先端の新たな結果を達成する。
論文 参考訳(メタデータ) (2022-06-23T14:16:30Z) - Hard-label Manifolds: Unexpected Advantages of Query Efficiency for
Finding On-manifold Adversarial Examples [67.23103682776049]
画像分類モデルに対する最近のゼロオーダーのハードラベル攻撃は、ファーストオーダーのグラデーションレベルの代替品に匹敵する性能を示している。
最近、グラデーションレベルの設定では、通常の敵対的な例がデータ多様体から離れ、オンマニホールドの例が実際には一般化エラーであることが示されている。
雑音の多い多様体距離オラクルに基づく情報理論論的議論を提案し、敵の勾配推定を通じて多様体情報を漏洩させる。
論文 参考訳(メタデータ) (2021-03-04T20:53:06Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。