論文の概要: Enhancing Exploration in Latent Space Bayesian Optimization
- arxiv url: http://arxiv.org/abs/2302.02399v3
- Date: Sat, 1 Jul 2023 07:11:16 GMT
- ステータス: 処理完了
- システム内更新日: 2023-07-04 14:40:25.872092
- Title: Enhancing Exploration in Latent Space Bayesian Optimization
- Title(参考訳): 潜時宇宙ベイズ最適化における探索の強化
- Authors: Onur Boyar and Ichiro Takeuchi
- Abstract要約: LSBOにおける遅延一貫性/一貫性の概念を重要課題として紹介する。
本稿では,一貫した点が増大する潜在空間を生成する新しいVAE法であるLCA-VAEを提案する。
提案手法は,潜時整合性に対処することの重要性を強調し,高い試料効率と効率的な探索を実現する。
- 参考スコア(独自算出の注目度): 19.823416445301646
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Latent Space Bayesian Optimization (LSBO) combines generative models,
typically Variational Autoencoders (VAE), with Bayesian Optimization (BO) to
generate de novo objects of interest. However, LSBO faces challenges due to the
mismatch between the objectives of BO and VAE, resulting in poor extrapolation
capabilities. In this paper, we propose novel contributions to enhance LSBO
efficiency and overcome this challenge. We first introduce the concept of
latent consistency/inconsistency as a crucial problem in LSBO, arising from the
BO-VAE mismatch. To address this, we propose the Latent Consistent
Aware-Acquisition Function (LCA-AF) that leverages consistent regions in LSBO.
Additionally, we present LCA-VAE, a novel VAE method that generates a latent
space with increased consistent points, improving BO's extrapolation
capabilities. Combining LCA-VAE and LCA-AF, we develop LCA-LSBO. Experimental
evaluations validate the improved performance of LCA-LSBO in image generation
and de-novo chemical design tasks, showcasing its enhanced extrapolation
capabilities in LSBO. Our approach achieves high sample-efficiency and
effective exploration, emphasizing the significance of addressing latent
consistency and leveraging LCA-VAE in LSBO.
- Abstract(参考訳): ラテント・スペース・ベイズ最適化(LSBO)は、典型的な変分オートエンコーダ(VAE)とベイズ最適化(BO)を組み合わせた生成モデルである。
しかし、LSBOは、BOとVAEの目的とのミスマッチにより、外挿能力の低下により課題に直面している。
本稿では,LSBO効率の向上と課題克服のための新しいコントリビューションを提案する。
まず、LSBOにおける遅延一貫性/一貫性の概念を、BO-VAEミスマッチから生じる重要な問題として紹介する。
そこで我々はLSBOにおける一貫した領域を利用するLCA-AF(Latent Consistent Aware-Acquisition Function)を提案する。
さらに,一貫した点を持つ潜在空間を生成し,BOの補間能力を向上する新しいVAE法であるLCA-VAEを提案する。
LCA-VAEとLCA-AFを組み合わせたLCA-LSBOを開発した。
LCA-LSBOの画像生成およびデノボ化学設計におけるLCA-LSBOの性能向上を実験的に評価し,LSBOの補間性能の向上を実証した。
本手法は,LSBOにおける潜時整合性に対処し,LCA-VAEを活用することの重要性を強調し,高い試料効率と有効探索を実現する。
関連論文リスト
- DisCo-DSO: Coupling Discrete and Continuous Optimization for Efficient Generative Design in Hybrid Spaces [12.729697787995892]
DisCo-DSOは、生成モデルを用いて離散的かつ連続的な設計変数に関する共同分布を学習する新しいアプローチである。
特に,決定木を用いた強化学習の最先端手法に対するDisCo-DSOの優位性について述べる。
論文 参考訳(メタデータ) (2024-12-15T04:51:54Z) - Dimensionality Reduction Techniques for Global Bayesian Optimisation [1.433758865948252]
減次元部分空間におけるBOの実行に次元還元を適用した潜在空間ベイズ最適化について検討する。
我々は、より複雑なデータ構造や一般的なDRタスクを管理するために、変分オートエンコーダ(VAE)を使用している。
そこで本研究では,分子生成などのタスク用に設計され,より広い最適化目的のためにアルゴリズムを再構成する実装において,いくつかの重要な補正を提案する。
論文 参考訳(メタデータ) (2024-12-12T11:27:27Z) - Inversion-based Latent Bayesian Optimization [18.306286370684205]
Inversion-based Latent Bayesian Optimization (InvBO) はラテントベイズ最適化のためのプラグイン・アンド・プレイモジュールである。
InvBOは2つのコンポーネントで構成されている。
実世界の9つのベンチマークにおけるInvBOの有効性を実験的に検証した。
論文 参考訳(メタデータ) (2024-11-08T05:06:47Z) - Learn from the Learnt: Source-Free Active Domain Adaptation via Contrastive Sampling and Visual Persistence [60.37934652213881]
ドメイン適応(DA)は、ソースドメインから関連するターゲットドメインへの知識伝達を容易にする。
本稿では、ソースデータフリーなアクティブドメイン適応(SFADA)という実用的なDAパラダイムについて検討する。
本稿では,学習者学習(LFTL)というSFADAの新たなパラダイムを紹介し,学習した学習知識を事前学習モデルから活用し,余分なオーバーヘッドを伴わずにモデルを積極的に反復する。
論文 参考訳(メタデータ) (2024-07-26T17:51:58Z) - Diffusion-BBO: Diffusion-Based Inverse Modeling for Online Black-Box Optimization [20.45482366024264]
オンラインブラックボックス最適化(BBO)は、ブラックボックスのオラクルをサンプル効率よく反復的にクエリすることで、目的関数を最適化することを目的としている。
Inverse surrogate modelとして条件付き拡散モデルを利用するサンプル効率の高いオンラインBBOフレームワークであるDiffusion-BBOを提案する。
論文 参考訳(メタデータ) (2024-06-30T06:58:31Z) - Cost-Sensitive Multi-Fidelity Bayesian Optimization with Transfer of Learning Curve Extrapolation [55.75188191403343]
各ユーザが事前に定義した機能であるユーティリティを導入し,BOのコストと性能のトレードオフについて述べる。
このアルゴリズムをLCデータセット上で検証した結果,従来のマルチファイルBOや転送BOベースラインよりも優れていた。
論文 参考訳(メタデータ) (2024-05-28T07:38:39Z) - Large Language Models to Enhance Bayesian Optimization [57.474613739645605]
本稿では,大規模言語モデル(LLM)の能力をベイズ最適化に組み込む新しいアプローチであるLLAMBOを提案する。
高いレベルでは、自然言語のBO問題を枠組み化し、LLMが歴史的評価に照らした有望な解を反復的に提案し、評価することを可能にする。
以上の結果から,LLAMBOはゼロショットウォームスタートに有効であり,サロゲートモデリングや候補サンプリングの促進,特に観察が不十分な場合の探索の初期段階において有効であることが示唆された。
論文 参考訳(メタデータ) (2024-02-06T11:44:06Z) - Model-based Causal Bayesian Optimization [74.78486244786083]
乗算重み付き因果ベイズ最適化のための最初のアルゴリズム(CBO-MW)を提案する。
グラフ関連の量に自然に依存するCBO-MWに対する後悔の限界を導出する。
我々の実験は、共有モビリティシステムにおいて、ユーザの需要パターンを学習するためにCBO-MWをどのように使用できるかの現実的なデモを含む。
論文 参考訳(メタデータ) (2023-07-31T13:02:36Z) - Complexity Matters: Rethinking the Latent Space for Generative Modeling [65.64763873078114]
生成的モデリングにおいて、多くの成功したアプローチは、例えば安定拡散のような低次元の潜在空間を利用する。
本研究では, モデル複雑性の観点から潜在空間を再考することにより, 未探索の話題に光を当てることを目的としている。
論文 参考訳(メタデータ) (2023-07-17T07:12:29Z) - Momentum Contrastive Autoencoder: Using Contrastive Learning for Latent
Space Distribution Matching in WAE [51.09507030387935]
Wasserstein autoencoder (WAE) は、2つの分布が一致することは、このAEの潜在空間が予め指定された事前分布と一致するという制約の下で、単純なオートエンコーダ(AE)損失を最小限にすることと同値であることを示している。
本稿では,この問題を解決する手段として,自己指導型表現学習に有効であることを示すコントラスト学習フレームワークを提案する。
WAEの損失を最適化するために、対照的な学習フレームワークを使用することで、WAEの一般的なアルゴリズムと比較して、より高速に収束し、より安定した最適化が達成できることを示す。
論文 参考訳(メタデータ) (2021-10-19T22:55:47Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。