論文の概要: Integrating Predictive and Generative Capabilities by Latent Space Design via the DKL-VAE Model
- arxiv url: http://arxiv.org/abs/2503.02978v1
- Date: Tue, 04 Mar 2025 20:05:04 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-03-06 15:51:01.435269
- Title: Integrating Predictive and Generative Capabilities by Latent Space Design via the DKL-VAE Model
- Title(参考訳): DKL-VAEモデルによる遅延空間設計による予測・生成能力の統合
- Authors: Boris N. Slautin, Utkarsh Pratiush, Doru C. Lupascu, Maxim A. Ziatdinov, Sergei V. Kalinin,
- Abstract要約: 本稿では,変分オートエンコーダ(VAE)の生成能力とDeep Kernel Learning(DKL)の予測特性を統合するフレームワークを提案する。
VAEは高次元データの潜在表現を学び、新しい構造を生成する。
DKLはこの潜在空間をガウス過程(GP)回帰(英語版)(Gaussian Process (GP) regression) を通じて対象特性に沿って構造化することで洗練する。
- 参考スコア(独自算出の注目度): 0.22795086293129713
- License:
- Abstract: We introduce a Deep Kernel Learning Variational Autoencoder (VAE-DKL) framework that integrates the generative power of a Variational Autoencoder (VAE) with the predictive nature of Deep Kernel Learning (DKL). The VAE learns a latent representation of high-dimensional data, enabling the generation of novel structures, while DKL refines this latent space by structuring it in alignment with target properties through Gaussian Process (GP) regression. This approach preserves the generative capabilities of the VAE while enhancing its latent space for GP-based property prediction. We evaluate the framework on two datasets: a structured card dataset with predefined variational factors and the QM9 molecular dataset, where enthalpy serves as the target function for optimization. The model demonstrates high-precision property prediction and enables the generation of novel out-of-training subset structures with desired characteristics. The VAE-DKL framework offers a promising approach for high-throughput material discovery and molecular design, balancing structured latent space organization with generative flexibility.
- Abstract(参考訳): 本稿では,変分オートエンコーダ(VAE)の生成能力と深部カーネル学習(DKL)の予測特性を統合する,深部カーネル学習変分オートエンコーダ(VAE-DKL)フレームワークを提案する。
VAEは高次元データの潜時表現を学習し、新しい構造の生成を可能にし、一方DKLはガウス過程(GP)レグレッション(英語版)を通じてターゲット特性と整合してこの潜時空間を洗練する。
このアプローチは,VAEの生成能力を保ちながら,GPベースの特性予測のための潜在空間を拡大する。
このフレームワークは、予め定義された変動因子を持つ構造化カードデータセットと、エンタルピーが最適化のターゲット関数となるQM9分子データセットの2つのデータセット上で評価する。
このモデルは、高精度な特性予測を示し、所望の特性を持つ新規なトレーニング外サブセット構造の生成を可能にする。
VAE-DKLフレームワークは、高スループット材料発見と分子設計のための有望なアプローチを提供する。
関連論文リスト
- DecompOpt: Controllable and Decomposed Diffusion Models for Structure-based Molecular Optimization [49.85944390503957]
DecompOptは、制御可能・拡散モデルに基づく構造に基づく分子最適化手法である。
DecompOptは強いde novoベースラインよりも優れた特性を持つ分子を効率よく生成できることを示す。
論文 参考訳(メタデータ) (2024-03-07T02:53:40Z) - Kernel-Elastic Autoencoder for Molecular Design [0.0]
Kernel-Elastic Autoencoder (KAE) はトランスフォーマーアーキテクチャに基づく自己教師型生成モデルである。
KAEは、ほぼ完全な再構成を維持しながら、分子生成において顕著な多様性を達成している。
我々は、広範囲のアプリケーションで生成することで、問題の解決にKAEを適用することができると期待している。
論文 参考訳(メタデータ) (2023-10-12T19:44:20Z) - Generative Modeling with Phase Stochastic Bridges [49.4474628881673]
拡散モデル(DM)は、連続入力のための最先端の生成モデルを表す。
我々はtextbfphase space dynamics に基づく新しい生成モデリングフレームワークを提案する。
我々のフレームワークは、動的伝播の初期段階において、現実的なデータポイントを生成する能力を示す。
論文 参考訳(メタデータ) (2023-10-11T18:38:28Z) - Enhanced LFTSformer: A Novel Long-Term Financial Time Series Prediction Model Using Advanced Feature Engineering and the DS Encoder Informer Architecture [0.8532753451809455]
本研究では,拡張LFTSformerと呼ばれる長期金融時系列の予測モデルを提案する。
このモデルは、いくつかの重要なイノベーションを通じて、自分自身を区別する。
さまざまなベンチマークストックマーケットデータセットに関するシステマティックな実験は、強化LFTSformerが従来の機械学習モデルより優れていることを示している。
論文 参考訳(メタデータ) (2023-10-03T08:37:21Z) - Dynamic Kernel-Based Adaptive Spatial Aggregation for Learned Image
Compression [63.56922682378755]
本稿では,空間アグリゲーション機能の拡張に焦点をあて,動的カーネルベースの変換符号化を提案する。
提案したアダプティブアグリゲーションはカーネルオフセットを生成し、コンテント条件付き範囲の有効な情報をキャプチャして変換を支援する。
実験により,本手法は,最先端の学習手法と比較して,3つのベンチマークにおいて高い速度歪み性能が得られることを示した。
論文 参考訳(メタデータ) (2023-08-17T01:34:51Z) - Scaling Pre-trained Language Models to Deeper via Parameter-efficient
Architecture [68.13678918660872]
行列積演算子(MPO)に基づくより有能なパラメータ共有アーキテクチャを設計する。
MPO分解はパラメータ行列の情報を再編成し、2つの部分に分解することができる。
私たちのアーキテクチャは、モデルのサイズを減らすために、すべてのレイヤで中央テンソルを共有しています。
論文 参考訳(メタデータ) (2023-03-27T02:34:09Z) - Deep Kernel Methods Learn Better: From Cards to Process Optimization [0.7587345054583298]
能動学習によるDKLはよりコンパクトでスムーズな潜在空間が得られることを示す。
簡単なカードデータセットを用いてこの挙動を実証し、物理系におけるドメイン生成軌道の最適化に拡張する。
論文 参考訳(メタデータ) (2023-03-25T20:21:29Z) - PDSketch: Integrated Planning Domain Programming and Learning [86.07442931141637]
我々は PDSketch という新しいドメイン定義言語を提案する。
これにより、ユーザーはトランジションモデルで柔軟にハイレベルな構造を定義できる。
移行モデルの詳細は、トレーニング可能なニューラルネットワークによって満たされる。
論文 参考訳(メタデータ) (2023-03-09T18:54:12Z) - InteL-VAEs: Adding Inductive Biases to Variational Auto-Encoders via
Intermediary Latents [60.785317191131284]
本稿では,潜伏変数の中間集合を用いて,制御可能なバイアスでVAEを学習するための簡易かつ効果的な手法を提案する。
特に、学習した表現に対して、スパーシリティやクラスタリングといった望ましいプロパティを課すことができます。
これにより、InteL-VAEはより優れた生成モデルと表現の両方を学ぶことができる。
論文 参考訳(メタデータ) (2021-06-25T16:34:05Z) - Characterizing the Latent Space of Molecular Deep Generative Models with
Persistent Homology Metrics [21.95240820041655]
変分オート(VAE)は、エンコーダとデコーダのネットワークペアをトレーニングデータ分散の再構築のために訓練する生成モデルである。
本研究では, 深部生成モデルの潜伏空間が, 構造的および化学的特徴をエンコードできるかどうかを計測する手法を提案する。
論文 参考訳(メタデータ) (2020-10-18T13:33:02Z) - Deep Latent-Variable Kernel Learning [25.356503463916816]
本稿では,潜在変数が正規化表現の符号化を行う完全潜時可変カーネル学習(DLVKL)モデルを提案する。
実験により、DLVKL-NSDEは、小さなデータセット上でよく校正されたGPと同様に動作し、大きなデータセット上で既存のディープGPより優れていることが示された。
論文 参考訳(メタデータ) (2020-05-18T05:55:08Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。