論文の概要: Latent Diffusion Inversion Requires Understanding the Latent Space
- arxiv url: http://arxiv.org/abs/2511.20592v1
- Date: Tue, 25 Nov 2025 18:21:33 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-11-26 17:37:04.608659
- Title: Latent Diffusion Inversion Requires Understanding the Latent Space
- Title(参考訳): 潜時拡散インバージョンは潜時空間を理解する必要がある
- Authors: Mingxing Rao, Bowen Qu, Daniel Moyer,
- Abstract要約: エンコーダ/デコーダペアと対応する潜在符号は、潜在空間生成モデルに適用された反転技術によって無視されている。
拡散モデルは,高歪み領域にあるサンプルに過度に適合する傾向があり,非均一な暗記を示すことを示す。
そこで本研究では,デコーダのプルバック距離に対する1次元の寄与により,遅延次元をランク付けする原理的手法を提案する。
- 参考スコア(独自算出の注目度): 3.742113529511043
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The recovery of training data from generative models (``model inversion'') has been extensively studied for diffusion models in the data domain. The encoder/decoder pair and corresponding latent codes have largely been ignored by inversion techniques applied to latent space generative models, e.g., Latent Diffusion models (LDMs). In this work we describe two key findings: (1) The diffusion model exhibits non-uniform memorization across latent codes, tending to overfit samples located in high-distortion regions of the decoder pullback metric. (2) Even within a single latent code, different dimensions contribute unequally to memorization. We introduce a principled method to rank latent dimensions by their per-dimensional contribution to the decoder pullback metric, identifying those most responsible for memorization. Empirically, removing less-memorizing dimensions when computing attack statistics for score-based membership inference attacker significantly improves performance, with average AUROC gains of 2.7\% and substantial increases in TPR@1\%FPR (6.42\%) across diverse datasets including CIFAR-10, CelebA, ImageNet-1K, Pokémon, MS-COCO, and Flickr. This indicates stronger confidence in identifying members under extremely low false-positive tolerance. Our results highlight the overlooked influence of the auto-encoder geometry on LDM memorization and provide a new perspective for analyzing privacy risks in diffusion-based generative models.
- Abstract(参考訳): データ領域における拡散モデルに対して,生成モデル( ``model inversion'')からのトレーニングデータの回復について検討した。
エンコーダ/デコーダペアと対応する潜在符号は、潜在空間生成モデル(例えば、潜在拡散モデル(LDM))に適用される反転技術によって無視されている。
本研究では,(1)拡散モデルが遅延符号の非一様記憶を示し,デコーダ・プルバック・メトリックの高歪み領域にあるサンプルに過度に適合する傾向にあることを示す。
2) 単一の遅延コード内であっても、異なる次元が記憶に等しく寄与する。
そこで本研究では,デコーダのプルバック距離に対する1次元の寄与により,遅延次元をランク付けする原理的手法を提案する。
CIFAR-10、CelebA、ImageNet-1K、Pokémon、MS-COCO、Flickrなど多様なデータセットで平均2.7\%のAUROCゲインとTPR@1\%FPR(6.42\%)の大幅な増加により、スコアベースのメンバシップ推論攻撃に対する攻撃統計の記憶の少ない次元が大幅に向上する。
これは、極めて低い偽陽性寛容の会員を識別する信頼性が強いことを示している。
本研究は, 自己エンコーダ形状がLCM記憶に与える影響を概観し, 拡散型生成モデルにおけるプライバシーリスクを解析するための新たな視点を提供するものである。
関連論文リスト
- Provable Separations between Memorization and Generalization in Diffusion Models [31.32606216124959]
我々は,統計的推定とネットワーク近似による二分割結果を開発した。
本研究は, 基礎構造スコア関数が経験的復調損失を最小限に抑えられず, 暗記を駆動する分離を生じさせることを示す。
論文 参考訳(メタデータ) (2025-11-05T05:37:57Z) - SDAR: A Synergistic Diffusion-AutoRegression Paradigm for Scalable Sequence Generation [62.14510717860079]
本稿では, 自己回帰モデルの学習効率を, 拡散の並列推論能力で統一するSynergistic Diffusion-Autoregressionパラダイムを提案する。
SDARは、十分に訓練された自己回帰モデル(AR)を、簡潔でデータ効率のよい適応を通じてブロックワイズ拡散モデルに変換する、軽量なパラダイム変換を実行する。
この知見に基づいて、SDARは最小コストで効率的なAR-拡散変換を実現し、並列生成を可能にしながら、ARレベルのパフォーマンスを維持する。
論文 参考訳(メタデータ) (2025-10-07T17:29:28Z) - Model Inversion Attacks Through Target-Specific Conditional Diffusion Models [54.69008212790426]
モデル反転攻撃(MIA)は、ターゲット分類器のトレーニングセットからプライベートイメージを再構築することを目的としており、それによってAIアプリケーションにおけるプライバシー上の懸念が高まる。
従来のGANベースのMIAは、GANの固有の欠陥と潜伏空間における最適化の偏りにより、劣った遺伝子的忠実度に悩まされる傾向にある。
これらの問題を緩和するために拡散モデル反転(Diff-MI)攻撃を提案する。
論文 参考訳(メタデータ) (2024-07-16T06:38:49Z) - An Inversion-based Measure of Memorization for Diffusion Models [37.9715620828388]
拡散モデルは、データの記憶をトレーニングし、著作権侵害やプライバシー侵害に関する懸念を提起する。
InvMMは,画像の複製を考慮に入れた感度潜時雑音分布の反転に基づく,インバージョンに基づく暗黙化尺度である。
InvMMはサンプル間で共振可能であり、正反対の立場から記憶の真の範囲を明らかにし、記憶がメンバーシップとどのように異なるかを示す。
論文 参考訳(メタデータ) (2024-05-09T15:32:00Z) - Multi-Fidelity Residual Neural Processes for Scalable Surrogate Modeling [19.60087366873302]
マルチフィデリティ・サロゲートモデリングは,最も高いフィデリティレベルで正確なサロゲートを学習することを目的としている。
ディープラーニングアプローチでは、ニューラルネットワークベースのエンコーダとデコーダを使用してスケーラビリティを向上させる。
本稿では,MFRNP(Multi-fidelity Residual Neural Processs)を提案する。
論文 参考訳(メタデータ) (2024-02-29T04:40:25Z) - Denoising Diffusion Autoencoders are Unified Self-supervised Learners [58.194184241363175]
本稿では,拡散モデルにおけるネットワーク,すなわち拡散オートエンコーダ(DDAE)が,自己教師型学習者の統合であることを示す。
DDAEはすでに、補助エンコーダを使わずに、中間層内で線形分離可能な表現を強く学習している。
CIFAR-10 と Tiny-ImageNet の線形評価精度は95.9% と 50.0% である。
論文 参考訳(メタデータ) (2023-03-17T04:20:47Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。