論文の概要: Latent Space Bayesian Optimization with Latent Data Augmentation for Enhanced Exploration
- arxiv url: http://arxiv.org/abs/2302.02399v4
- Date: Sun, 28 Apr 2024 12:29:06 GMT
- ステータス: 処理完了
- システム内更新日: 2024-05-01 01:44:16.354144
- Title: Latent Space Bayesian Optimization with Latent Data Augmentation for Enhanced Exploration
- Title(参考訳): 拡張探索のための潜時データ拡張による潜時空間ベイズ最適化
- Authors: Onur Boyar, Ichiro Takeuchi,
- Abstract要約: 本稿では,Latent Space Bayesian Optimization (LSBO) の効率を向上させるための新しい貢献を提案し,その課題を克服する。
まず,VAE-BOミスマッチから生じるLSBOの重要な問題として,潜時整合/整合性の概念を紹介した。
LCA-VAEは,潜伏空間におけるデータ増大と潜伏不整合のペナル化を通じて,不整合点を増大させた潜伏空間を生成する新しいVAE法である。
- 参考スコア(独自算出の注目度): 16.73336092521471
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Latent Space Bayesian Optimization (LSBO) combines generative models, typically Variational Autoencoders (VAE), with Bayesian Optimization (BO) to generate de-novo objects of interest. However, LSBO faces challenges due to the mismatch between the objectives of BO and VAE, resulting in poor exploration capabilities. In this paper, we propose novel contributions to enhance LSBO efficiency and overcome this challenge. We first introduce the concept of latent consistency/inconsistency as a crucial problem in LSBO, arising from the VAE-BO mismatch. To address this, we propose the Latent Consistent Aware-Acquisition Function (LCA-AF) that leverages consistent points in LSBO. Additionally, we present LCA-VAE, a novel VAE method that creates a latent space with increased consistent points through data augmentation in latent space and penalization of latent inconsistencies. Combining LCA-VAE and LCA-AF, we develop LCA-LSBO. Our approach achieves high sample-efficiency and effective exploration, emphasizing the significance of addressing latent consistency through the novel incorporation of data augmentation in latent space within LCA-VAE in LSBO. We showcase the performance of our proposal via de-novo image generation and de-novo chemical design tasks.
- Abstract(参考訳): ラテント宇宙ベイズ最適化(LSBO)は、典型的な変分オートエンコーダ(VAE)とベイズ最適化(BO)を組み合わせて、興味のあるデノボオブジェクトを生成する。
しかし、LSBO は BO と VAE の目標とのミスマッチにより、探索能力の低下により課題に直面している。
本稿では,LSBO効率の向上と課題克服のための新しいコントリビューションを提案する。
まず,VAE-BOミスマッチから生じるLSBOの重要な問題として,潜時整合/整合性の概念を紹介した。
そこで我々はLSBOにおける一貫した点を利用するLCA-AF(Latent Consistent Aware-Acquisition Function)を提案する。
さらに,潜時空間におけるデータ増大と潜時不整合のペナル化により,不整合点を増大させた潜時空間を創出する新しいVAE法であるLCA-VAEを提案する。
LCA-VAEとLCA-AFを組み合わせたLCA-LSBOを開発した。
本手法は,LSBOにおけるLCA-VAE内の潜時空間におけるデータ拡張の新たな導入を通じて,潜時一貫性に対処することの重要性を強調し,高効率かつ効率的な探索を実現する。
本稿では,デノボ画像生成とデノボ化学設計タスクによる提案手法の性能について紹介する。
関連論文リスト
- Inversion-based Latent Bayesian Optimization [18.306286370684205]
Inversion-based Latent Bayesian Optimization (InvBO) はラテントベイズ最適化のためのプラグイン・アンド・プレイモジュールである。
InvBOは2つのコンポーネントで構成されている。
実世界の9つのベンチマークにおけるInvBOの有効性を実験的に検証した。
論文 参考訳(メタデータ) (2024-11-08T05:06:47Z) - Boosting Lossless Speculative Decoding via Feature Sampling and Partial Alignment Distillation [8.046705062670096]
損失のない投機的復号化は、ターゲットとする大言語モデル推論を加速する。
FSPAD (Feature Sampling and partial Alignment Distillation for Lossless Speculative Decoding) を提案する。
我々の実験は、ヴィクナ級数とLLaMA3-インストラクト級数で最大かつ最小のモデルにおいて、欲求と非欲求デコーディングの両方を含む。
論文 参考訳(メタデータ) (2024-08-28T06:28:01Z) - Learn from the Learnt: Source-Free Active Domain Adaptation via Contrastive Sampling and Visual Persistence [60.37934652213881]
ドメイン適応(DA)は、ソースドメインから関連するターゲットドメインへの知識伝達を容易にする。
本稿では、ソースデータフリーなアクティブドメイン適応(SFADA)という実用的なDAパラダイムについて検討する。
本稿では,学習者学習(LFTL)というSFADAの新たなパラダイムを紹介し,学習した学習知識を事前学習モデルから活用し,余分なオーバーヘッドを伴わずにモデルを積極的に反復する。
論文 参考訳(メタデータ) (2024-07-26T17:51:58Z) - Cost-Sensitive Multi-Fidelity Bayesian Optimization with Transfer of Learning Curve Extrapolation [55.75188191403343]
各ユーザが事前に定義した機能であるユーティリティを導入し,BOのコストと性能のトレードオフについて述べる。
このアルゴリズムをLCデータセット上で検証した結果,従来のマルチファイルBOや転送BOベースラインよりも優れていた。
論文 参考訳(メタデータ) (2024-05-28T07:38:39Z) - Large Language Models to Enhance Bayesian Optimization [57.474613739645605]
本稿では,大規模言語モデル(LLM)の能力をベイズ最適化に組み込む新しいアプローチであるLLAMBOを提案する。
高いレベルでは、自然言語のBO問題を枠組み化し、LLMが歴史的評価に照らした有望な解を反復的に提案し、評価することを可能にする。
以上の結果から,LLAMBOはゼロショットウォームスタートに有効であり,サロゲートモデリングや候補サンプリングの促進,特に観察が不十分な場合の探索の初期段階において有効であることが示唆された。
論文 参考訳(メタデータ) (2024-02-06T11:44:06Z) - Model-based Causal Bayesian Optimization [74.78486244786083]
乗算重み付き因果ベイズ最適化のための最初のアルゴリズム(CBO-MW)を提案する。
グラフ関連の量に自然に依存するCBO-MWに対する後悔の限界を導出する。
我々の実験は、共有モビリティシステムにおいて、ユーザの需要パターンを学習するためにCBO-MWをどのように使用できるかの現実的なデモを含む。
論文 参考訳(メタデータ) (2023-07-31T13:02:36Z) - Complexity Matters: Rethinking the Latent Space for Generative Modeling [65.64763873078114]
生成的モデリングにおいて、多くの成功したアプローチは、例えば安定拡散のような低次元の潜在空間を利用する。
本研究では, モデル複雑性の観点から潜在空間を再考することにより, 未探索の話題に光を当てることを目的としている。
論文 参考訳(メタデータ) (2023-07-17T07:12:29Z) - Momentum Contrastive Autoencoder: Using Contrastive Learning for Latent
Space Distribution Matching in WAE [51.09507030387935]
Wasserstein autoencoder (WAE) は、2つの分布が一致することは、このAEの潜在空間が予め指定された事前分布と一致するという制約の下で、単純なオートエンコーダ(AE)損失を最小限にすることと同値であることを示している。
本稿では,この問題を解決する手段として,自己指導型表現学習に有効であることを示すコントラスト学習フレームワークを提案する。
WAEの損失を最適化するために、対照的な学習フレームワークを使用することで、WAEの一般的なアルゴリズムと比較して、より高速に収束し、より安定した最適化が達成できることを示す。
論文 参考訳(メタデータ) (2021-10-19T22:55:47Z) - High-Dimensional Bayesian Optimization with Sparse Axis-Aligned
Subspaces [14.03847432040056]
スパース軸整列部分空間上で定義される代理モデルは、柔軟性とパーシモニーの間に魅力的な妥協をもたらすと我々は主張する。
提案手法は,ハミルトニアンモンテカルロを推論に用い,未知の目的関数のモデル化に関連するスパース部分空間を迅速に同定できることを実証する。
論文 参考訳(メタデータ) (2021-02-27T23:06:24Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。