論文の概要: Latent Reconstruction-Aware Variational Autoencoder
- arxiv url: http://arxiv.org/abs/2302.02399v1
- Date: Sun, 5 Feb 2023 15:02:34 GMT
- ステータス: 処理完了
- システム内更新日: 2023-02-07 18:24:51.857065
- Title: Latent Reconstruction-Aware Variational Autoencoder
- Title(参考訳): 潜時再構成型変分オートエンコーダ
- Authors: Onur Boyar and Ichiro Takeuchi
- Abstract要約: 本研究では,変分オートエンコーダ(VAE)の低密度領域から発生する低品質物体の問題点について検討する。
我々は新しいVAEモデルLRA-VAE(Latent Reconstruction-Aware VAE)を提案する。
我々は,LRA-VAEが生成したオブジェクトの質を他の手法よりも向上できることを示す。
- 参考スコア(独自算出の注目度): 19.823416445301646
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Variational Autoencoders (VAEs) have become increasingly popular in recent
years due to their ability to generate new objects such as images and texts
from a given dataset. This ability has led to a wide range of applications.
While standard tasks often require sampling from high-density regions in the
latent space, there are also tasks that require sampling from low-density
regions, such as Morphing and Latent Space Bayesian Optimization (LS-BO). These
tasks are becoming increasingly important in fields such as de novo molecular
design, where the ability to generate diverse and high-quality chemical
compounds is essential. In this study, we investigate the issue of low-quality
objects generated from low-density regions in VAEs. To address this problem, we
propose a new VAE model, the Latent Reconstruction-Aware VAE (LRA-VAE). The
LRA-VAE model takes into account what we refer to as the Latent Reconstruction
Error (LRE) of the latent variables. We evaluate our proposal using Morphing
and LS-BO experiments, and show that LRA-VAE can improve the quality of
generated objects over the other approaches, making it a promising solution for
various generation tasks that involve sampling from low-density regions.
- Abstract(参考訳): 可変オートエンコーダ(VAE)は、あるデータセットから画像やテキストなどの新しいオブジェクトを生成する能力により、近年人気が高まっている。
この能力は幅広い応用につながった。
標準タスクは、しばしば潜在空間の高密度領域からのサンプリングを必要とするが、モルフィングやラテン宇宙ベイズ最適化(LS-BO)のような低密度領域からのサンプリングを必要とするタスクもある。
これらのタスクは、多種多様な高品質の化学物質を生産する能力が不可欠であるデノボ分子設計のような分野において、ますます重要になっている。
本研究では,vaesの低密度領域から発生する低品質物体について検討する。
この問題に対処するため、我々は新しいVAEモデル、Latent Reconstruction-Aware VAE (LRA-VAE)を提案する。
LRA-VAEモデルは、潜在変数の遅延再構成誤差(LRE)と呼ばれるものを考慮している。
我々は, モーフィングとls-bo実験を用いて提案手法を評価し, lra-vaeが生成する物体の品質を他の手法よりも向上できることを示す。
関連論文リスト
- Inversion-based Latent Bayesian Optimization [18.306286370684205]
Inversion-based Latent Bayesian Optimization (InvBO) はラテントベイズ最適化のためのプラグイン・アンド・プレイモジュールである。
InvBOは2つのコンポーネントで構成されている。
実世界の9つのベンチマークにおけるInvBOの有効性を実験的に検証した。
論文 参考訳(メタデータ) (2024-11-08T05:06:47Z) - Boosting Lossless Speculative Decoding via Feature Sampling and Partial Alignment Distillation [8.046705062670096]
損失のない投機的復号化は、ターゲットとする大言語モデル推論を加速する。
FSPAD (Feature Sampling and partial Alignment Distillation for Lossless Speculative Decoding) を提案する。
我々の実験は、ヴィクナ級数とLLaMA3-インストラクト級数で最大かつ最小のモデルにおいて、欲求と非欲求デコーディングの両方を含む。
論文 参考訳(メタデータ) (2024-08-28T06:28:01Z) - Learn from the Learnt: Source-Free Active Domain Adaptation via Contrastive Sampling and Visual Persistence [60.37934652213881]
ドメイン適応(DA)は、ソースドメインから関連するターゲットドメインへの知識伝達を容易にする。
本稿では、ソースデータフリーなアクティブドメイン適応(SFADA)という実用的なDAパラダイムについて検討する。
本稿では,学習者学習(LFTL)というSFADAの新たなパラダイムを紹介し,学習した学習知識を事前学習モデルから活用し,余分なオーバーヘッドを伴わずにモデルを積極的に反復する。
論文 参考訳(メタデータ) (2024-07-26T17:51:58Z) - Cost-Sensitive Multi-Fidelity Bayesian Optimization with Transfer of Learning Curve Extrapolation [55.75188191403343]
各ユーザが事前に定義した機能であるユーティリティを導入し,BOのコストと性能のトレードオフについて述べる。
このアルゴリズムをLCデータセット上で検証した結果,従来のマルチファイルBOや転送BOベースラインよりも優れていた。
論文 参考訳(メタデータ) (2024-05-28T07:38:39Z) - Large Language Models to Enhance Bayesian Optimization [57.474613739645605]
本稿では,大規模言語モデル(LLM)の能力をベイズ最適化に組み込む新しいアプローチであるLLAMBOを提案する。
高いレベルでは、自然言語のBO問題を枠組み化し、LLMが歴史的評価に照らした有望な解を反復的に提案し、評価することを可能にする。
以上の結果から,LLAMBOはゼロショットウォームスタートに有効であり,サロゲートモデリングや候補サンプリングの促進,特に観察が不十分な場合の探索の初期段階において有効であることが示唆された。
論文 参考訳(メタデータ) (2024-02-06T11:44:06Z) - Model-based Causal Bayesian Optimization [74.78486244786083]
乗算重み付き因果ベイズ最適化のための最初のアルゴリズム(CBO-MW)を提案する。
グラフ関連の量に自然に依存するCBO-MWに対する後悔の限界を導出する。
我々の実験は、共有モビリティシステムにおいて、ユーザの需要パターンを学習するためにCBO-MWをどのように使用できるかの現実的なデモを含む。
論文 参考訳(メタデータ) (2023-07-31T13:02:36Z) - Complexity Matters: Rethinking the Latent Space for Generative Modeling [65.64763873078114]
生成的モデリングにおいて、多くの成功したアプローチは、例えば安定拡散のような低次元の潜在空間を利用する。
本研究では, モデル複雑性の観点から潜在空間を再考することにより, 未探索の話題に光を当てることを目的としている。
論文 参考訳(メタデータ) (2023-07-17T07:12:29Z) - Momentum Contrastive Autoencoder: Using Contrastive Learning for Latent
Space Distribution Matching in WAE [51.09507030387935]
Wasserstein autoencoder (WAE) は、2つの分布が一致することは、このAEの潜在空間が予め指定された事前分布と一致するという制約の下で、単純なオートエンコーダ(AE)損失を最小限にすることと同値であることを示している。
本稿では,この問題を解決する手段として,自己指導型表現学習に有効であることを示すコントラスト学習フレームワークを提案する。
WAEの損失を最適化するために、対照的な学習フレームワークを使用することで、WAEの一般的なアルゴリズムと比較して、より高速に収束し、より安定した最適化が達成できることを示す。
論文 参考訳(メタデータ) (2021-10-19T22:55:47Z) - High-Dimensional Bayesian Optimization with Sparse Axis-Aligned
Subspaces [14.03847432040056]
スパース軸整列部分空間上で定義される代理モデルは、柔軟性とパーシモニーの間に魅力的な妥協をもたらすと我々は主張する。
提案手法は,ハミルトニアンモンテカルロを推論に用い,未知の目的関数のモデル化に関連するスパース部分空間を迅速に同定できることを実証する。
論文 参考訳(メタデータ) (2021-02-27T23:06:24Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。