論文の概要: Deep Kernel Methods Learn Better: From Cards to Process Optimization
- arxiv url: http://arxiv.org/abs/2303.14554v1
- Date: Sat, 25 Mar 2023 20:21:29 GMT
- ステータス: 処理完了
- システム内更新日: 2023-03-28 18:55:02.040110
- Title: Deep Kernel Methods Learn Better: From Cards to Process Optimization
- Title(参考訳): deep kernelメソッドはより良く学習する: カードからプロセス最適化へ
- Authors: Mani Valleti, Rama k. Vasudevan, Maxim A. Ziatdinov, Sergei V. Kalinin
- Abstract要約: 能動学習によるDKLはよりコンパクトでスムーズな潜在空間が得られることを示す。
簡単なカードデータセットを用いてこの挙動を実証し、物理系におけるドメイン生成軌道の最適化に拡張する。
- 参考スコア(独自算出の注目度): 0.8602553195689513
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The ability of deep learning methods to perform classification and regression
tasks relies heavily on their capacity to uncover manifolds in high-dimensional
data spaces and project them into low-dimensional representation spaces. In
this study, we investigate the structure and character of the manifolds
generated by classical variational autoencoder (VAE) approaches and deep kernel
learning (DKL). In the former case, the structure of the latent space is
determined by the properties of the input data alone, while in the latter, the
latent manifold forms as a result of an active learning process that balances
the data distribution and target functionalities. We show that DKL with active
learning can produce a more compact and smooth latent space which is more
conducive to optimization compared to previously reported methods, such as the
VAE. We demonstrate this behavior using a simple cards data set and extend it
to the optimization of domain-generated trajectories in physical systems. Our
findings suggest that latent manifolds constructed through active learning have
a more beneficial structure for optimization problems, especially in
feature-rich target-poor scenarios that are common in domain sciences, such as
materials synthesis, energy storage, and molecular discovery. The jupyter
notebooks that encapsulate the complete analysis accompany the article.
- Abstract(参考訳): 分類および回帰タスクを実行するディープラーニングの能力は、高次元データ空間内の多様体を探索し、低次元表現空間に投影する能力に大きく依存する。
本研究では,古典的変分オートエンコーダ(VAE)と深層カーネル学習(DKL)によって生成される多様体の構造と特性について検討する。
前者の場合、潜在空間の構造は入力データの性質だけで決定されるが、後者の場合、潜在多様体はデータ分布と対象機能とのバランスをとるアクティブラーニングプロセスの結果として形成される。
アクティブ・ラーニングを用いたdklは,以前報告されたvaeのような手法に比べて,よりコンパクトでスムースな潜在空間を生成できることを示した。
簡単なカードデータセットを用いてこの挙動を実証し、物理系におけるドメイン生成軌道の最適化に拡張する。
本研究は, 物質合成, エネルギー貯蔵, 分子発見などの領域科学に共通する特徴量の多いターゲット・プアーシナリオにおいて, 能動的学習により構築された潜在多様体の方が, 最適化問題に有利な構造を持つことを示唆する。
完全な分析をカプセル化したジュピターノートはその記事に付随する。
関連論文リスト
- Pullback Flow Matching on Data Manifolds [10.187244125099479]
プルバックフローマッチング(Pullback Flow Matching、PFM)は、データ多様体上の生成モデリングのためのフレームワークである。
PFMの有効性を、合成、データダイナミクス、タンパク質配列データに適用し、特定の性質を持つ新規なタンパク質を生成することによって実証する。
本手法は, 創薬・材料科学に強い可能性を示し, 特定の性質を持つ新規試料の生成に大きな関心を寄せている。
論文 参考訳(メタデータ) (2024-10-06T16:41:26Z) - Understanding active learning of molecular docking and its applications [0.6554326244334868]
本研究では,2次元構造のみを用いて,能動的学習手法がドッキングスコアを効果的に予測する方法を検討する。
以上の結果から,サロゲートモデルではドッキング量の高い化合物に代表される構造パターンを記憶する傾向が示唆された。
我々の総合的な分析は、仮想スクリーニングキャンペーンにおけるアクティブラーニング手法の信頼性と潜在的な適用可能性を示している。
論文 参考訳(メタデータ) (2024-06-14T05:43:42Z) - Scalable manifold learning by uniform landmark sampling and constrained
locally linear embedding [0.6144680854063939]
本研究では,大規模・高次元データを効率的に操作できるスケーラブルな多様体学習法を提案する。
異なるタイプの合成データセットと実世界のベンチマークにおけるSCMLの有効性を実証的に検証した。
scMLはデータサイズや埋め込み次元の増大とともにスケールし、グローバル構造を保存する上で有望なパフォーマンスを示す。
論文 参考訳(メタデータ) (2024-01-02T08:43:06Z) - A Heat Diffusion Perspective on Geodesic Preserving Dimensionality
Reduction [66.21060114843202]
熱測地線埋め込みと呼ばれるより一般的な熱カーネルベースの多様体埋め込み法を提案する。
その結果,本手法は,地中真理多様体距離の保存において,既存の技術よりも優れていることがわかった。
また,連続体とクラスタ構造を併用した単一セルRNAシークエンシングデータセットに本手法を適用した。
論文 参考訳(メタデータ) (2023-05-30T13:58:50Z) - Optimization of a Hydrodynamic Computational Reservoir through Evolution [58.720142291102135]
我々は,スタートアップが開発中の流体力学系のモデルと,計算貯水池としてインターフェースする。
我々は、進化探索アルゴリズムを用いて、読み出し時間と入力を波の振幅や周波数にどのようにマッピングするかを最適化した。
この貯水池システムに進化的手法を適用することで、手作業パラメータを用いた実装と比較して、XNORタスクの分離性が大幅に向上した。
論文 参考訳(メタデータ) (2023-04-20T19:15:02Z) - Dynamic Latent Separation for Deep Learning [67.62190501599176]
機械学習の中核的な問題は、複雑なデータに対するモデル予測のための表現力のある潜在変数を学習することである。
本稿では,表現性を向上し,部分的解釈を提供し,特定のアプリケーションに限定されないアプローチを開発する。
論文 参考訳(メタデータ) (2022-10-07T17:56:53Z) - Joint Embedding Self-Supervised Learning in the Kernel Regime [21.80241600638596]
自己教師付き学習(SSL)は、データを分類するためのラベルにアクセスすることなく、データの有用な表現を生成する。
我々はこのフレームワークを拡張し,カーネルの機能空間に作用する線形写像によって埋め込みを構築するカーネル手法に基づくアルゴリズムを組み込む。
カーネルモデルを小さなデータセットで分析し、自己教師付き学習アルゴリズムの共通特徴を特定し、下流タスクにおける性能に関する理論的洞察を得る。
論文 参考訳(メタデータ) (2022-09-29T15:53:19Z) - Measuring dissimilarity with diffeomorphism invariance [94.02751799024684]
DID(DID)は、幅広いデータ空間に適用可能なペアワイズな相似性尺度である。
我々は、DIDが理論的研究と実用に関係のある特性を享受していることを証明する。
論文 参考訳(メタデータ) (2022-02-11T13:51:30Z) - High-Dimensional Bayesian Optimisation with Variational Autoencoders and
Deep Metric Learning [119.91679702854499]
本研究では,高次元の入力空間上でベイズ最適化を行うためのディープ・メトリック・ラーニングに基づく手法を提案する。
このような帰納バイアスを、利用可能なラベル付きデータの1%だけを用いて達成する。
実証的な貢献として、実世界の高次元ブラックボックス最適化問題に対する最先端の結果を示す。
論文 参考訳(メタデータ) (2021-06-07T13:35:47Z) - Characterizing the Latent Space of Molecular Deep Generative Models with
Persistent Homology Metrics [21.95240820041655]
変分オート(VAE)は、エンコーダとデコーダのネットワークペアをトレーニングデータ分散の再構築のために訓練する生成モデルである。
本研究では, 深部生成モデルの潜伏空間が, 構造的および化学的特徴をエンコードできるかどうかを計測する手法を提案する。
論文 参考訳(メタデータ) (2020-10-18T13:33:02Z) - A Trainable Optimal Transport Embedding for Feature Aggregation and its
Relationship to Attention [96.77554122595578]
固定サイズのパラメータ化表現を導入し、与えられた入力セットから、そのセットとトレーニング可能な参照の間の最適な輸送計画に従って要素を埋め込み、集約する。
我々のアプローチは大規模なデータセットにスケールし、参照のエンドツーエンドのトレーニングを可能にすると同時に、計算コストの少ない単純な教師なし学習メカニズムも提供する。
論文 参考訳(メタデータ) (2020-06-22T08:35:58Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。