論文の概要: Disentangled representations via score-based variational autoencoders
- arxiv url: http://arxiv.org/abs/2512.17127v1
- Date: Thu, 18 Dec 2025 23:42:10 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-12-22 19:25:54.198098
- Title: Disentangled representations via score-based variational autoencoders
- Title(参考訳): スコアベース変分オートエンコーダによる不整合表現
- Authors: Benjamin S. H. Lyo, Eero P. Simoncelli, Cristina Savin,
- Abstract要約: マルチスケール推論のためのスコアベースオートエンコーダ(SAMI)を提案する。
SAMIは、基礎となる拡散過程のスコアベースのガイダンスを通じて表現を学ぶ、原則化された目的を定式化する。
最小限の追加訓練で事前学習した拡散モデルから有用な表現を抽出することができる。
- 参考スコア(独自算出の注目度): 21.955536401578616
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: We present the Score-based Autoencoder for Multiscale Inference (SAMI), a method for unsupervised representation learning that combines the theoretical frameworks of diffusion models and VAEs. By unifying their respective evidence lower bounds, SAMI formulates a principled objective that learns representations through score-based guidance of the underlying diffusion process. The resulting representations automatically capture meaningful structure in the data: it recovers ground truth generative factors in our synthetic dataset, learns factorized, semantic latent dimensions from complex natural images, and encodes video sequences into latent trajectories that are straighter than those of alternative encoders, despite training exclusively on static images. Furthermore, SAMI can extract useful representations from pre-trained diffusion models with minimal additional training. Finally, the explicitly probabilistic formulation provides new ways to identify semantically meaningful axes in the absence of supervised labels, and its mathematical exactness allows us to make formal statements about the nature of the learned representation. Overall, these results indicate that implicit structural information in diffusion models can be made explicit and interpretable through synergistic combination with a variational autoencoder.
- Abstract(参考訳): 本稿では,拡散モデルとVAEの理論的枠組みを組み合わせた教師なし表現学習手法であるScore-based Autoencoder for Multiscale Inference (SAMI)を提案する。
それぞれのエビデンスを下限に統一することにより、SAMIは、基礎となる拡散過程のスコアベースのガイダンスを通じて表現を学ぶという、原則化された目的を定式化する。
合成データセットの真理生成因子を復元し、複雑な自然画像から分解された意味的潜在次元を学習し、静的画像のみを訓練しながら、他のエンコーダよりもまっすぐな潜在軌道にビデオシーケンスをエンコードする。
さらに、SAMIは、最小限の追加トレーニングで事前訓練された拡散モデルから有用な表現を抽出することができる。
最後に、明示的な確率的定式化は、教師付きラベルのない意味論的意味のある軸を識別する新しい方法を提供し、その数学的正確性により、学習された表現の性質に関する公式な言明を作ることができる。
これらの結果は,拡散モデルにおける暗黙的な構造情報を,変分オートエンコーダと相乗的組み合わせにより明示的かつ解釈可能であることを示唆している。
関連論文リスト
- Automated Learning of Semantic Embedding Representations for Diffusion Models [1.688134675717698]
拡散モデルの表現能力を拡大するために,マルチレベル・デノナイジング・オートエンコーダ・フレームワークを用いる。
我々の研究は、DDMが生成タスクに適合するだけでなく、汎用的なディープラーニングアプリケーションにも有利である可能性を正当化している。
論文 参考訳(メタデータ) (2025-05-09T02:10:46Z) - MASCOTS: Model-Agnostic Symbolic COunterfactual explanations for Time Series [4.664512594743523]
モデルに依存しない方法で有意義で多様な対実観測を生成するMASCOTSを導入する。
シンボリックな特徴空間で操作することで、MASCOTSは元のデータとモデルへの忠実さを維持しながら解釈可能性を高める。
論文 参考訳(メタデータ) (2025-03-28T12:48:12Z) - Graph Representation Learning with Diffusion Generative Models [0.0]
我々は、グラフデータの意味のある埋め込みを学習するために、オートエンコーダフレームワーク内で離散拡散モデルを訓練する。
エンコーダの出力とデコーダの最初のステップの埋め込みから表現を抽出する。
本手法は,グラフ表現学習に使用する離散拡散モデルの可能性を示す。
論文 参考訳(メタデータ) (2025-01-22T07:12:10Z) - Reflected Diffusion Models [93.26107023470979]
本稿では,データのサポートに基づいて進化する反射微分方程式を逆転する反射拡散モデルを提案する。
提案手法は,一般化されたスコアマッチング損失を用いてスコア関数を学習し,標準拡散モデルの主要成分を拡張する。
論文 参考訳(メタデータ) (2023-04-10T17:54:38Z) - DIFFormer: Scalable (Graph) Transformers Induced by Energy Constrained
Diffusion [66.21290235237808]
本稿では,データセットからのインスタンスのバッチを進化状態にエンコードするエネルギー制約拡散モデルを提案する。
任意のインスタンス対間の対拡散強度に対する閉形式最適推定を示唆する厳密な理論を提供する。
各種タスクにおいて優れた性能を有する汎用エンコーダバックボーンとして,本モデルの適用性を示す実験を行った。
論文 参考訳(メタデータ) (2023-01-23T15:18:54Z) - Diffusion-Based Representation Learning [65.55681678004038]
教師付き信号のない表現学習を実現するために,デノナイズスコアマッチングフレームワークを拡張した。
対照的に、拡散に基づく表現学習は、デノナイジングスコアマッチング目的の新しい定式化に依存している。
同じ手法を用いて,半教師付き画像分類における最先端モデルの改善を実現する無限次元潜在符号の学習を提案する。
論文 参考訳(メタデータ) (2021-05-29T09:26:02Z) - Closed-Form Factorization of Latent Semantics in GANs [65.42778970898534]
画像合成のために訓練されたGAN(Generative Adversarial Networks)の潜在空間に、解釈可能な次元の豊富なセットが出現することが示されている。
本研究では,GANが学習した内部表現について検討し,その基礎となる変動要因を教師なしで明らかにする。
本稿では,事前学習した重みを直接分解することで,潜在意味発見のためのクローズドフォーム因数分解アルゴリズムを提案する。
論文 参考訳(メタデータ) (2020-07-13T18:05:36Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。