論文の概要: Latent Thermodynamic Flows: Unified Representation Learning and Generative Modeling of Temperature-Dependent Behaviors from Limited Data
- arxiv url: http://arxiv.org/abs/2507.03174v1
- Date: Thu, 03 Jul 2025 21:02:36 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-07-08 15:46:34.607651
- Title: Latent Thermodynamic Flows: Unified Representation Learning and Generative Modeling of Temperature-Dependent Behaviors from Limited Data
- Title(参考訳): 潜熱力学的流れ:限定データからの統一表現学習と温度依存挙動の生成モデル
- Authors: Yunrui Qiu, Richard John, Lukas Herron, Pratyush Tiwary,
- Abstract要約: 表現学習と生成モデリングを密接に統合したエンドツーエンドのフレームワークであるLaTF(Latent Thermodynamic Flows)を紹介する。
LaTFはNational Predictive Information Bottleneck(SPIB)をNFと統合し、低次元の潜在表現を同時に学習する。
我々は、モデルポテンシャル、チグノリンタンパク質、レナード・ジョーンズ粒子のクラスターを含む様々なシステムにおけるLaTFの有効性を実証する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Accurate characterization of the equilibrium distributions of complex molecular systems and their dependence on environmental factors such as temperature is essential for understanding thermodynamic properties and transition mechanisms. Projecting these distributions onto meaningful low-dimensional representations enables interpretability and downstream analysis. Recent advances in generative AI, particularly flow models such as Normalizing Flows (NFs), have shown promise in modeling such distributions, but their scope is limited without tailored representation learning. In this work, we introduce Latent Thermodynamic Flows (LaTF), an end-to-end framework that tightly integrates representation learning and generative modeling. LaTF unifies the State Predictive Information Bottleneck (SPIB) with NFs to simultaneously learn low-dimensional latent representations, referred to as Collective Variables (CVs), classify metastable states, and generate equilibrium distributions across temperatures beyond the training data. The two components of representation learning and generative modeling are optimized jointly, ensuring that the learned latent features capture the system's slow, important degrees of freedom while the generative model accurately reproduces the system's equilibrium behavior. We demonstrate LaTF's effectiveness across diverse systems, including a model potential, the Chignolin protein, and cluster of Lennard Jones particles, with thorough evaluations and benchmarking using multiple metrics and extensive simulations. Finally, we apply LaTF to a RNA tetraloop system, where despite using simulation data from only two temperatures, LaTF reconstructs the temperature-dependent structural ensemble and melting behavior, consistent with experimental and prior extensive computational results.
- Abstract(参考訳): 複雑な分子系の平衡分布の正確な評価と温度などの環境要因への依存は、熱力学特性や遷移機構を理解する上で不可欠である。
これらの分布を意味のある低次元表現に投影することで、解釈可能性および下流解析が可能になる。
生成AIの最近の進歩、特に正規化フロー(NF)のようなフローモデルは、そのような分布をモデル化する上で有望であるが、そのスコープは表現学習を調整せずに限られている。
本研究では,表現学習と生成モデリングを密接に統合したエンドツーエンドのフレームワークであるLaTF(Latent Thermodynamic Flows)を紹介する。
LaTFはNational Predictive Information Bottleneck(SPIB)をNFと統合し、低次元の潜伏表現(CV)を同時に学習し、準安定状態を分類し、トレーニングデータ以外の温度にわたって平衡分布を生成する。
表現学習と生成モデリングの2つのコンポーネントは共同で最適化され、学習された潜在特徴がシステムの遅い重要な自由度を捉え、生成モデルはシステムの平衡挙動を正確に再現する。
我々は、モデルポテンシャル、チグノリンタンパク質、レナード・ジョーンズ粒子のクラスターを含む様々なシステムにおいてLaTFの有効性を実証し、複数のメトリクスと広範囲なシミュレーションを用いて徹底的な評価とベンチマークを行った。
最後に、LaTFをRNAテトラループシステムに適用し、2つの温度からのシミュレーションデータを使用しながら、LaTFは温度依存性の構造アンサンブルと融解挙動を再構成し、実験および以前の広範囲な計算結果と一致させる。
関連論文リスト
- Models of Heavy-Tailed Mechanistic Universality [62.107333654304014]
トレーニングニューラルネットワークにおける重み付け行動を引き起こす属性を探索するために,ランダム行列モデルのファミリーを提案する。
このモデルの下では、3つの独立した因子の組み合わせによって、尾翼の電力法則によるスペクトル密度が生じる。
ニューラルネットワークトレーニングの5段階以上において、ニューラルネットワークのスケーリング法則、軌道、および5段階以上の位相を含む重尾の出現に対する我々のモデルの影響について論じる。
論文 参考訳(メタデータ) (2025-06-04T00:55:01Z) - PIGPVAE: Physics-Informed Gaussian Process Variational Autoencoders [42.8983261737774]
本稿では,物理制約を組み込んでデータから学習し,性能を向上させる新しい生成モデルを提案する。
生成過程に物理モデルを組み込むことで、VAEアーキテクチャを拡張し、基礎となるダイナミクスをより効果的に捉えることができる。
我々はPIGPVAEが観測された分布を超えて現実的なサンプルを作成できることを示した。
論文 参考訳(メタデータ) (2025-05-25T21:12:01Z) - Latent Space Energy-based Neural ODEs [73.01344439786524]
本稿では,連続時間列を表現するために設計された新しい深部力学モデルを提案する。
マルコフ連鎖モンテカルロの最大推定値を用いてモデルを訓練する。
振動系, ビデオ, 実世界の状態系列(MuJoCo)の実験結果から, 学習可能なエネルギーベース先行モデルの方が既存のモデルより優れていることが示された。
論文 参考訳(メタデータ) (2024-09-05T18:14:22Z) - Efficient mapping of phase diagrams with conditional Boltzmann Generators [4.437335677401287]
位相図全体に対するボルツマン生成法に基づく深層生成機械学習モデルを開発した。
単一正規化流を訓練することにより, 単一の基準熱力学状態から広範囲の目標温度, 圧力に比例した平衡分布を変換し, 効率よく平衡分布を生成することができる。
我々は、レナード=ジョーンズ系の固液共存線を最先端自由エネルギー法とよく一致して予測することで、我々のアプローチを実証する。
論文 参考訳(メタデータ) (2024-06-18T08:05:04Z) - Model-free quantification of completeness, uncertainties, and outliers in atomistic machine learning using information theory [4.59916193837551]
原子論的機械学習(ML)は、情報内容を分析するために教師なし学習やモデル予測に依存していることが多い。
本稿では、原子論シミュレーションにおける情報内容の定量化のための厳密なモデルフリーツールを提供する理論的枠組みを提案する。
論文 参考訳(メタデータ) (2024-04-18T17:50:15Z) - Heat Death of Generative Models in Closed-Loop Learning [63.83608300361159]
本研究では、独自の学習データセットに加えて、生成したコンテンツをフィードバックする生成モデルの学習ダイナミクスについて検討する。
各イテレーションで十分な量の外部データが導入されない限り、非自明な温度がモデルを退化させることを示す。
論文 参考訳(メタデータ) (2024-04-02T21:51:39Z) - Synthetic location trajectory generation using categorical diffusion
models [50.809683239937584]
拡散モデル(DPM)は急速に進化し、合成データのシミュレーションにおける主要な生成モデルの一つとなっている。
本稿では,個人が訪れた物理的位置を表す変数列である合成個別位置軌跡(ILT)の生成にDPMを用いることを提案する。
論文 参考訳(メタデータ) (2024-02-19T15:57:39Z) - Stochastic Thermodynamics of Learning Parametric Probabilistic Models [0.0]
本稿では,PPM(Parametric Probabilistic Models)の学習過程における情報の流れを追跡する,記憶情報(M-info)と学習情報(L-info)の2つの情報理論指標を紹介する。
本研究では,学習過程におけるL-infoの蓄積がエントロピー生成と関連し,パラメータが熱貯水池として機能し,M-infoの形で学習情報を収集することを示した。
論文 参考訳(メタデータ) (2023-10-04T01:32:55Z) - Closed-form Continuous-Depth Models [99.40335716948101]
連続深度ニューラルモデルは高度な数値微分方程式解法に依存している。
我々は,CfCネットワークと呼ばれる,記述が簡単で,少なくとも1桁高速な新しいモデル群を提示する。
論文 参考訳(メタデータ) (2021-06-25T22:08:51Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。