論文の概要: Analysis of ODE2VAE with Examples
- arxiv url: http://arxiv.org/abs/2108.04899v1
- Date: Tue, 10 Aug 2021 20:12:26 GMT
- ステータス: 処理完了
- システム内更新日: 2021-08-12 13:24:22.913690
- Title: Analysis of ODE2VAE with Examples
- Title(参考訳): 例によるODE2VAEの解析
- Authors: Batuhan Koyuncu
- Abstract要約: 通常微分方程式変分オートエンコーダ(ODE2VAE)は、潜時変分モデルである。
モデルが意味のある潜在表現をある程度学習できることを示す。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Deep generative models aim to learn underlying distributions that generate
the observed data. Given the fact that the generative distribution may be
complex and intractable, deep latent variable models use probabilistic
frameworks to learn more expressive joint probability distributions over the
data and their low-dimensional hidden variables. Learning complex probability
distributions over sequential data without any supervision is a difficult task
for deep generative models. Ordinary Differential Equation Variational
Auto-Encoder (ODE2VAE) is a deep latent variable model that aims to learn
complex distributions over high-dimensional sequential data and their
low-dimensional representations. ODE2VAE infers continuous latent dynamics of
the high-dimensional input in a low-dimensional hierarchical latent space. The
hierarchical organization of the continuous latent space embeds a
physics-guided inductive bias in the model. In this paper, we analyze the
latent representations inferred by the ODE2VAE model over three different
physical motion datasets: bouncing balls, projectile motion, and simple
pendulum. Through our experiments, we explore the effects of the physics-guided
inductive bias of the ODE2VAE model over the learned dynamical latent
representations. We show that the model is able to learn meaningful latent
representations to an extent without any supervision.
- Abstract(参考訳): 深層生成モデルは観測データを生成する基盤となる分布を学習することを目的としている。
生成分布が複雑で難解であるという事実を考えると、深潜変数モデルは確率的枠組みを用いて、データとその低次元隠れ変数に対するより表現力のある合同確率分布を学ぶ。
教師なしのシーケンシャルデータ上で複雑な確率分布を学習することは、深層生成モデルにとって難しい課題である。
正規微分方程式変分オートエンコーダ(ODE2VAE)は,高次元逐次データとその低次元表現上の複素分布の学習を目的とした潜時変分モデルである。
ODE2VAEは低次元階層型潜在空間における高次元入力の連続潜時ダイナミクスを推論する。
連続潜在空間の階層構造は、モデルに物理誘導帰納バイアスを埋め込む。
本稿では,ode2vaeモデルで推定される潜時表現を,バウンシングボール,投射運動,単純な振り子という3種類の物理運動データセット上で解析する。
実験を通して, 学習された動的潜在表現に対するODE2VAEモデルの物理誘導帰納バイアスの影響について検討した。
モデルが有意義な潜在表現をある程度学習できることを,何の監督もせずに示す。
関連論文リスト
- Identifiable Representation and Model Learning for Latent Dynamic Systems [0.0]
本稿では,潜在力学系における表現とモデル学習の問題について検討する。
線形あるいはアフィン非線形潜在力学系に対して、スケーリングまでの表現を同定し、いくつかの単純な変換までモデルを決定できることを証明した。
論文 参考訳(メタデータ) (2024-10-23T13:55:42Z) - Learning Divergence Fields for Shift-Robust Graph Representations [73.11818515795761]
本研究では,相互依存データに対する問題に対して,学習可能な分散場を持つ幾何学的拡散モデルを提案する。
因果推論によって新たな学習目標が導出され、ドメイン間で無神経な相互依存の一般化可能なパターンを学習するためのモデルが導出される。
論文 参考訳(メタデータ) (2024-06-07T14:29:21Z) - Recurrent Deep Kernel Learning of Dynamical Systems [0.5825410941577593]
デジタル双対は計算効率の低い低次モデル(ROM)を必要とし、物理的資産の複雑な力学を正確に記述することができる。
データから低次元の潜伏空間を発見するために,データ駆動型非侵入型深層学習法(SVDKL)を提案する。
その結果,本フレームワークは, (i) 測定値の復調と再構成, (ii) システム状態のコンパクトな表現の学習, (iii) 低次元潜在空間におけるシステム進化の予測, (iv) 不確実性をモデル化できることがわかった。
論文 参考訳(メタデータ) (2024-05-30T07:49:02Z) - On the Trajectory Regularity of ODE-based Diffusion Sampling [79.17334230868693]
拡散に基づく生成モデルは微分方程式を用いて、複素データ分布と抽出可能な事前分布の間の滑らかな接続を確立する。
本稿では,拡散モデルのODEに基づくサンプリングプロセスにおいて,いくつかの興味深い軌道特性を同定する。
論文 参考訳(メタデータ) (2024-05-18T15:59:41Z) - Synthetic location trajectory generation using categorical diffusion
models [50.809683239937584]
拡散モデル(DPM)は急速に進化し、合成データのシミュレーションにおける主要な生成モデルの一つとなっている。
本稿では,個人が訪れた物理的位置を表す変数列である合成個別位置軌跡(ILT)の生成にDPMを用いることを提案する。
論文 参考訳(メタデータ) (2024-02-19T15:57:39Z) - Latent Dynamical Implicit Diffusion Processes [0.0]
潜在動的暗黙拡散過程(LDIDP)と呼ばれる新しい潜時変動モデルを提案する。
LDIDPは暗黙の拡散過程を利用して動的潜伏過程からサンプリングし、それに従って逐次観測サンプルを生成する。
我々は, LDIDP が潜在次元上の力学を正確に学習できることを実証した。
論文 参考訳(メタデータ) (2023-06-12T12:43:27Z) - VTAE: Variational Transformer Autoencoder with Manifolds Learning [144.0546653941249]
深層生成モデルは、多くの潜伏変数を通して非線形データ分布の学習に成功している。
ジェネレータの非線形性は、潜在空間がデータ空間の不満足な射影を示し、表現学習が不十分になることを意味する。
本研究では、測地学と正確な計算により、深部生成モデルの性能を大幅に向上させることができることを示す。
論文 参考訳(メタデータ) (2023-04-03T13:13:19Z) - DIFFormer: Scalable (Graph) Transformers Induced by Energy Constrained
Diffusion [66.21290235237808]
本稿では,データセットからのインスタンスのバッチを進化状態にエンコードするエネルギー制約拡散モデルを提案する。
任意のインスタンス対間の対拡散強度に対する閉形式最適推定を示唆する厳密な理論を提供する。
各種タスクにおいて優れた性能を有する汎用エンコーダバックボーンとして,本モデルの適用性を示す実験を行った。
論文 参考訳(メタデータ) (2023-01-23T15:18:54Z) - Dynamic Latent Separation for Deep Learning [67.62190501599176]
機械学習の中核的な問題は、複雑なデータに対するモデル予測のための表現力のある潜在変数を学習することである。
本稿では,表現性を向上し,部分的解釈を提供し,特定のアプリケーションに限定されないアプローチを開発する。
論文 参考訳(メタデータ) (2022-10-07T17:56:53Z) - Learning and Inference in Sparse Coding Models with Langevin Dynamics [3.0600309122672726]
本稿では確率的潜在変数モデルで推論と学習が可能なシステムについて述べる。
ランゲヴィン力学を用いて潜伏変数を推論する連続時間方程式を導出することにより、スパース符号化モデルのこのアイデアを実証する。
ランゲヴィン力学は、L1ノルムが小さいのに対して、潜伏変数をゼロにすることを推奨する'L0スパース'系において、後続分布からサンプリングする効率的な手順をもたらすことを示す。
論文 参考訳(メタデータ) (2022-04-23T23:16:47Z) - Dynamical Deep Generative Latent Modeling of 3D Skeletal Motion [15.359134407309726]
本モデルでは,高度に相関した骨格データを時間的変化の空間的基礎の集合に分解する。
これにより、3次元ポーズデータのダイナミックスにおいて意味のある内在状態を解析する動的深部生成潜在モデルが得られる。
論文 参考訳(メタデータ) (2021-06-18T23:58:49Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。