論文の概要: Isometric Representation Learning for Disentangled Latent Space of Diffusion Models
- arxiv url: http://arxiv.org/abs/2407.11451v1
- Date: Tue, 16 Jul 2024 07:36:01 GMT
- ステータス: 処理完了
- システム内更新日: 2024-07-17 16:12:18.417164
- Title: Isometric Representation Learning for Disentangled Latent Space of Diffusion Models
- Title(参考訳): 拡散モデルの非交叉潜在空間に対する等尺的表現学習
- Authors: Jaehoon Hahm, Junho Lee, Sunghyun Kim, Joonseok Lee,
- Abstract要約: 等方的拡散(Isometric Diffusion)を提案し、幾何正則化器を備えた拡散モデルを用いてモデルを誘導し、トレーニングデータ多様体の幾何学的音響潜在空間を学習する。
このアプローチにより拡散モデルはより不整合な潜在空間を学習することができ、より滑らかで正確に逆転し、潜在空間に直接属性を制御できるようになる。
- 参考スコア(独自算出の注目度): 17.64488229224982
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The latent space of diffusion model mostly still remains unexplored, despite its great success and potential in the field of generative modeling. In fact, the latent space of existing diffusion models are entangled, with a distorted mapping from its latent space to image space. To tackle this problem, we present Isometric Diffusion, equipping a diffusion model with a geometric regularizer to guide the model to learn a geometrically sound latent space of the training data manifold. This approach allows diffusion models to learn a more disentangled latent space, which enables smoother interpolation, more accurate inversion, and more precise control over attributes directly in the latent space. Our extensive experiments consisting of image interpolations, image inversions, and linear editing show the effectiveness of our method.
- Abstract(参考訳): 拡散モデルの潜在空間は、生成モデリングの分野で大きな成功と可能性にもかかわらず、いまだに未解明のままである。
実際、既存の拡散モデルの潜在空間は、その潜在空間からイメージ空間への歪んだ写像で絡み合っている。
この問題に対処するため,幾何正規化器を備えた拡散モデルを用いて,トレーニングデータ多様体の幾何学的音響潜在空間を学習する。
このアプローチにより、拡散モデルはより不整合な潜在空間を学習することができ、より滑らかな補間、より正確な反転、より正確な潜在空間の属性の制御を可能にする。
画像補間, 画像反転, 線形編集による広範囲な実験により, 提案手法の有効性が示された。
関連論文リスト
- Continuous Diffusion Model for Language Modeling [57.396578974401734]
離散データに対する既存の連続拡散モデルは、離散的アプローチと比較して性能が限られている。
本稿では,下層の分類分布の幾何学を組み込んだ言語モデリングのための連続拡散モデルを提案する。
論文 参考訳(メタデータ) (2025-02-17T08:54:29Z) - Exploring the latent space of diffusion models directly through singular value decomposition [31.900933527692846]
拡散モデルにおけるテキストプロンプトによって決定される1組の潜在符号から任意の属性を学習できる新しい画像編集フレームワークを提案する。
この分野のさらなる研究と応用を促進するため、まもなくコードをリリースします。
論文 参考訳(メタデータ) (2025-02-04T11:04:36Z) - Geometric Trajectory Diffusion Models [58.853975433383326]
生成モデルは3次元幾何学システムの生成において大きな可能性を示してきた。
既存のアプローチは静的構造のみで動作し、物理系は常に自然界において動的であるという事実を無視する。
本研究では3次元軌跡の時間分布をモデル化する最初の拡散モデルである幾何軌道拡散モデル(GeoTDM)を提案する。
論文 参考訳(メタデータ) (2024-10-16T20:36:41Z) - Towards diffusion models for large-scale sea-ice modelling [0.4498088099418789]
データ空間におけるガウス分布を検閲して、潜伏拡散モデルを海氷物理学に調整し、モデル化された変数の物理的境界に従うデータを生成する。
我々の潜伏拡散モデルは、データ空間で訓練された拡散モデルと同様のスコアに達するが、潜伏写像によって生成されたフィールドは滑らかである。
大規模地球系モデリングでは、スムース化の重要な障壁を解決することができる場合、遅延拡散モデルはデータ空間の拡散に比べて多くの利点を持つ。
論文 参考訳(メタデータ) (2024-06-26T15:11:15Z) - Interpreting the Weight Space of Customized Diffusion Models [79.14866339932199]
微調整拡散モデルの重み空間は、新しいモデルを生成する解釈可能なメタラテント空間として振る舞うことができることを示す。
この結果から,微調整拡散モデルの重み空間は,新しいモデルを生成する解釈可能なメタラテント空間として振る舞うことが示唆された。
論文 参考訳(メタデータ) (2024-06-13T17:59:56Z) - Scaling Riemannian Diffusion Models [68.52820280448991]
非自明な多様体上の高次元タスクにスケールできることを示す。
我々は、$SU(n)$格子上のQCD密度と高次元超球面上の対照的に学習された埋め込みをモデル化する。
論文 参考訳(メタデータ) (2023-10-30T21:27:53Z) - Geometric Neural Diffusion Processes [55.891428654434634]
拡散モデルの枠組みを拡張して、無限次元モデリングに一連の幾何学的先行を組み込む。
これらの条件で、生成関数モデルが同じ対称性を持つことを示す。
論文 参考訳(メタデータ) (2023-07-11T16:51:38Z) - SPIRiT-Diffusion: Self-Consistency Driven Diffusion Model for Accelerated MRI [14.545736786515837]
本稿では,k空間の拡散モデルであるSPIRiT-Diffusionを紹介する。
3次元頭蓋内および頸動脈壁画像データセットを用いたSPIRiT-Diffusion法の評価を行った。
論文 参考訳(メタデータ) (2023-04-11T08:43:52Z) - Unifying Diffusion Models' Latent Space, with Applications to
CycleDiffusion and Guidance [95.12230117950232]
関係領域で独立に訓練された2つの拡散モデルから共通潜時空間が現れることを示す。
テキスト・画像拡散モデルにCycleDiffusionを適用することで、大規模なテキスト・画像拡散モデルがゼロショット画像・画像拡散エディタとして使用できることを示す。
論文 参考訳(メタデータ) (2022-10-11T15:53:52Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。