論文の概要: Time-Aware Latent Space Bayesian Optimization
- arxiv url: http://arxiv.org/abs/2603.00935v1
- Date: Sun, 01 Mar 2026 05:50:53 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-03-03 19:50:56.419744
- Title: Time-Aware Latent Space Bayesian Optimization
- Title(参考訳): 時空間潜時宇宙ベイズ最適化
- Authors: Tuan A. Vu, Julien Martinelli, Harri Lähdesmäki,
- Abstract要約: 時間を考慮したラテント空間ベイズ最適化(TALBO)を提案する。
TALBOは、GP-プライア変分オートエンコーダを介して、サロゲートと学習された生成表現の両方に時間を組み込む。
我々は、多目的のドリフトに広く使われている分子設計タスクを適用し、ターゲットの変化に合わせてメトリクスを導入する。
- 参考スコア(独自算出の注目度): 8.943469192703875
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Latent-space Bayesian optimization (LSBO) extends Bayesian optimization to structured domains, such as molecular design, by searching in the continuous latent space of a generative model. However, most LSBO methods assume a fixed objective, whereas real design campaigns often face temporal drift (e.g., evolving preferences or shifting targets). Bringing time-varying BO into LSBO is nontrivial: drift can affect not only the surrogate, but also the latent search space geometry induced by the representation. We propose Time-Aware Latent-space Bayesian Optimization (TALBO), which incorporates time in both the surrogate and the learned generative representation via a GP-prior variational autoencoder, yielding a latent space aligned as objectives evolve. To evaluate timevarying LSBO systematically, we adapt widely used molecular design tasks to drifting multi-property objectives and introduce metrics tailored to changing targets. Across these benchmarks, TALBO consistently outperforms strong LSBO baselines and remains robust across drift speeds and design choices, while remaining competitive under actually time-invariant objectives.
- Abstract(参考訳): 潜時空間ベイズ最適化(LSBO)は、生成モデルの連続潜時空間を探索することによって、分子設計のような構造化領域へのベイズ最適化を拡張する。
しかしながら、ほとんどのLSBOメソッドは固定目的を仮定するが、実際の設計キャンペーンは時間的ドリフト(例えば、進化する好みやシフトする目標)に直面していることが多い。
時間変化BOをLSBOに持ち込むことは自明であり、ドリフトはサロゲートだけでなく、表現によって誘導される潜在探索空間幾何学にも影響を及ぼす。
本稿では,GP-プライア変分オートエンコーダを用いて,サロゲートと学習した生成表現の両方に時間を加え,目的が進化するにつれて潜在空間が整列する時間認識ラテント空間ベイズ最適化(TALBO)を提案する。
LSBOの時間的変化を系統的に評価するため,多目的のドリフトに広く用いられている分子設計タスクを適用し,目標変更に適した指標を導入する。
これらのベンチマーク全体では、TALBOはLSBOのベースラインを一貫して上回り、ドリフト速度と設計選択で堅牢でありながら、実際の時間不変の目的の下では競争力を維持している。
関連論文リスト
- Task-free Adaptive Meta Black-box Optimization [55.461814601130044]
対象タスクからのみ最適化データを用いてオンラインパラメータ適応を行うアダプティブメタブラックボックス最適化モデル(ABOM)を提案する。
メタトレーニングと最適化フェーズを分離する従来のメタBBOフレームワークとは異なり、ABOMはクローズドループパラメータ学習機構を導入し、パラメータ化された進化演算子を継続的に自己更新する。
このパラダイムシフトはゼロショット最適化を可能にする: 合成BBOベンチマークにおけるABOMの競合性能と、手作りのトレーニングタスクを伴わない現実的な無人飛行路計画問題。
論文 参考訳(メタデータ) (2026-01-29T09:54:10Z) - MAESTRO: Meta-learning Adaptive Estimation of Scalarization Trade-offs for Reward Optimization [56.074760766965085]
大規模言語モデル(LLM)の整合性のための効率的なパラダイムとしてグループ相対政策最適化が登場している。
我々は,報酬スカラー化を動的潜在ポリシーとして扱い,モデルの終端隠蔽状態を意味的ボトルネックとして活用するMAESTROを提案する。
本稿では,軽量コンダクタネットワークがメタリワード信号としてグループ相対的優位性を生かしてポリシと共進化する,双方向最適化フレームワークにおけるコンテキスト的帯域幅問題としてこれを定式化する。
論文 参考訳(メタデータ) (2026-01-12T05:02:48Z) - HiBBO: HiPPO-based Space Consistency for High-dimensional Bayesian Optimisation [23.518990631999884]
HiBBO は、HiPPO を用いた VAE の潜在空間構築に空間整合性を導入する新しい BO フレームワークである。
高次元のベンチマークタスクの実験は、HiBBOが既存のVAEBO法よりも収束速度と解の質で優れていることを示した。
論文 参考訳(メタデータ) (2025-10-10T03:22:10Z) - Return of the Latent Space COWBOYS: Re-thinking the use of VAEs for Bayesian Optimisation of Structured Spaces [13.38402522324075]
本稿では、生成モデルとガウス過程(GP)を個別にシュロゲートし、単純だが原理化されたベイズ更新規則を介してそれらを結合する分離されたアプローチを提案する。
我々は, 分子最適化問題における高ポテンシャル候補を制約評価予算下で同定する能力を, 分離した手法により向上することを示した。
論文 参考訳(メタデータ) (2025-07-05T05:53:04Z) - Adaptive Deadline and Batch Layered Synchronized Federated Learning [66.93447103966439]
フェデレートラーニング(FL)は、データプライバシを保持しながら、分散エッジデバイス間で協調的なモデルトレーニングを可能にする。
我々は,レイヤワイドアグリゲーションのために,ラウンド単位の期限とユーザ固有のバッチサイズを共同で最適化する新しいフレームワークADEL-FLを提案する。
論文 参考訳(メタデータ) (2025-05-29T19:59:18Z) - Adaptive Linear Embedding for Nonstationary High-Dimensional Optimization [0.0]
Self-Adaptive embedding REMBO (SA-REMBO) はランダムEMBdding Bayesian Optimization (REMBO) を一般化して複数のランダムガウス埋め込みをサポートする新しいフレームワークである。
インデックス変数は埋め込み選択を制御し、サロゲート内の製品カーネルを介して潜伏潜伏子と共同でモデル化される。
従来のREMBO法や他の低ランクBO法が失敗する合成および実世界の高次元ベンチマークにおいて,本手法の利点を実証的に示す。
論文 参考訳(メタデータ) (2025-05-16T14:18:19Z) - Latent Bayesian Optimization via Autoregressive Normalizing Flows [17.063294409131238]
本研究では,正規化フローに基づくベイズ最適化(NF-BO)を提案する。
提案手法は,分子生成タスクにおいて優れた性能を示し,従来のLBO手法と最近のLBO手法の両方を著しく上回っている。
論文 参考訳(メタデータ) (2025-04-21T06:36:09Z) - SPEED: Scalable, Precise, and Efficient Concept Erasure for Diffusion Models [56.83154571623655]
モデルパラメータを直接編集する効率的な概念消去手法であるSPEEDを導入する。
Speedyは、パラメータ更新がターゲット以外の概念に影響しないモデル編集スペースであるnullスペースを検索する。
たった5秒で100のコンセプトを消去しました。
論文 参考訳(メタデータ) (2025-03-10T14:40:01Z) - Exploring Representation-Aligned Latent Space for Better Generation [86.45670422239317]
生成性能を改善するために,セマンティックな事前情報を統合するReaLSを導入する。
本研究では、ReaLSでトレーニングされたDETとSiTが、FID測定値の15%改善を実現することを示す。
拡張されたセマンティック潜在空間は、セグメンテーションや深さ推定のようなより知覚的な下流タスクを可能にする。
論文 参考訳(メタデータ) (2025-02-01T07:42:12Z) - Towards Continual Learning Desiderata via HSIC-Bottleneck
Orthogonalization and Equiangular Embedding [55.107555305760954]
本稿では,レイヤワイドパラメータのオーバーライトや決定境界の歪みに起因する,概念的にシンプルで効果的な手法を提案する。
提案手法は,ゼロの指数バッファと1.02倍の差が絶対的に優れていても,競争精度が向上する。
論文 参考訳(メタデータ) (2024-01-17T09:01:29Z) - Local Latent Space Bayesian Optimization over Structured Inputs [23.173329381303887]
本稿では,高次元ベイズ最適化における信頼領域の概念を構造化環境に適用する LOL-BO を提案する。
LOL-BOは6つの実世界のベンチマークで、最先端の潜在空間ベイズ最適化手法よりも最大20倍改善されている。
論文 参考訳(メタデータ) (2022-01-28T00:55:58Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。