論文の概要: ROOT: Rethinking Offline Optimization as Distributional Translation via Probabilistic Bridge
- arxiv url: http://arxiv.org/abs/2509.16300v1
- Date: Fri, 19 Sep 2025 17:46:48 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-09-23 18:58:15.730921
- Title: ROOT: Rethinking Offline Optimization as Distributional Translation via Probabilistic Bridge
- Title(参考訳): ROOT: オフライン最適化を確率的ブリッジによる分散変換として再考
- Authors: Manh Cuong Dao, The Hung Tran, Phi Le Nguyen, Thao Nguyen Truong, Trong Nghia Hoang,
- Abstract要約: 観測された入出力ペアの静的集合を用いてブラックボックス関数の最大値を求めるブラックボックス最適化タスクについて検討する。
これはしばしば、オフラインデータによる代理関数の学習と最適化によって達成される。
本稿では,オフライン最適化を分散翻訳タスクとして活用する新たな視点を提案する。
- 参考スコア(独自算出の注目度): 15.972034047471555
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: This paper studies the black-box optimization task which aims to find the maxima of a black-box function using a static set of its observed input-output pairs. This is often achieved via learning and optimizing a surrogate function with that offline data. Alternatively, it can also be framed as an inverse modeling task that maps a desired performance to potential input candidates that achieve it. Both approaches are constrained by the limited amount of offline data. To mitigate this limitation, we introduce a new perspective that casts offline optimization as a distributional translation task. This is formulated as learning a probabilistic bridge transforming an implicit distribution of low-value inputs (i.e., offline data) into another distribution of high-value inputs (i.e., solution candidates). Such probabilistic bridge can be learned using low- and high-value inputs sampled from synthetic functions that resemble the target function. These synthetic functions are constructed as the mean posterior of multiple Gaussian processes fitted with different parameterizations on the offline data, alleviating the data bottleneck. The proposed approach is evaluated on an extensive benchmark comprising most recent methods, demonstrating significant improvement and establishing a new state-of-the-art performance.
- Abstract(参考訳): 本稿では,ブラックボックス関数の最大値を求めるブラックボックス最適化タスクについて,観測された入出力ペアの静的セットを用いて検討する。
これはしばしば、オフラインデータによる代理関数の学習と最適化によって達成される。
あるいは、所望のパフォーマンスをそれを達成する可能性のある入力候補にマッピングする逆モデリングタスクとしてフレーム化することもできる。
両方のアプローチは、オフラインデータの限られた量によって制約される。
この制限を緩和するために,オフライン最適化を分散翻訳タスクとして活用する新たな視点を導入する。
これは、低値入力(すなわち、オフラインデータ)の暗黙の分布を、高値入力(すなわち、解候補)の別の分布に変換する確率的ブリッジの学習として定式化される。
このような確率的ブリッジは、ターゲット関数に類似した合成関数からサンプリングされた低値および高値入力を用いて学習することができる。
これらの合成関数は、オフラインデータ上で異なるパラメータ化を施した複数のガウス過程の平均後部として構成され、データのボトルネックを緩和する。
提案手法は,最新の手法を含む広範囲なベンチマークで評価され,大幅な改善と新たな最先端性能の確立が図られている。
関連論文リスト
- Information-theoretic Bayesian Optimization: Survey and Tutorial [2.3931689873603603]
本稿では,情報理論的獲得関数について述べる。
また,情報理論の獲得関数を,多目的,制約付き,非明視的,多面的,並列,非同期といった複雑な最適化シナリオに適応させる方法について述べる。
論文 参考訳(メタデータ) (2025-01-22T10:54:15Z) - Efficient Bayesian Optimization with Deep Kernel Learning and
Transformer Pre-trained on Multiple Heterogeneous Datasets [9.510327380529892]
本稿では,トランスフォーマーベースのエンコーダから学習した深い特徴に基づいてカーネルが定義されたガウス過程(GP)であるサロゲートを事前訓練する簡単な手法を提案する。
総合的および実ベンチマーク問題に対する実験は,提案した事前学習および転送BO戦略の有効性を実証するものである。
論文 参考訳(メタデータ) (2023-08-09T01:56:10Z) - Improved Distribution Matching for Dataset Condensation [91.55972945798531]
本稿では,分布マッチングに基づく新しいデータセット凝縮法を提案する。
提案手法は,計算資源の少ない従来の最適化指向手法よりも優れている。
論文 参考訳(メタデータ) (2023-07-19T04:07:33Z) - Bayesian Optimisation of Functions on Graphs [33.97967750232631]
一般,大規模,潜在的に未知のグラフ上で定義された関数を最適化する新しいベイズ最適化フレームワークを提案する。
グラフ上の適切なカーネルの学習を通じて、我々のフレームワークは対象関数の振る舞いに適応する利点がある。
局所モデリング手法は,提案手法の効率性をさらに保証する。
論文 参考訳(メタデータ) (2023-06-08T15:50:35Z) - Bayesian Optimization for Macro Placement [48.55456716632735]
本研究では,系列対上のベイズ最適化(BO)を用いた新しいマクロ配置法を提案する。
BOは確率的代理モデルと獲得関数を利用する機械学習技術である。
固定アウトラインマクロ配置問題に対して, 半周波線長目標を用いたアルゴリズムを実証する。
論文 参考訳(メタデータ) (2022-07-18T06:17:06Z) - Invariance Learning in Deep Neural Networks with Differentiable Laplace
Approximations [76.82124752950148]
我々はデータ拡張を選択するための便利な勾配法を開発した。
我々はKronecker-factored Laplace近似を我々の目的とする限界確率に近似する。
論文 参考訳(メタデータ) (2022-02-22T02:51:11Z) - JUMBO: Scalable Multi-task Bayesian Optimization using Offline Data [86.8949732640035]
追加データをクエリすることで制限をサイドステップするMBOアルゴリズムであるJUMBOを提案する。
GP-UCBに類似した条件下では, 応答が得られないことを示す。
実世界の2つの最適化問題に対する既存手法に対する性能改善を実証的に示す。
論文 参考訳(メタデータ) (2021-06-02T05:03:38Z) - MOPS-Net: A Matrix Optimization-driven Network forTask-Oriented 3D Point
Cloud Downsampling [86.42733428762513]
MOPS-Netは行列最適化のための新しい解釈可能な深層学習手法である。
我々はMOPS-Netが様々なタスクに対して最先端の深層学習手法に対して好適な性能が得られることを示す。
論文 参考訳(メタデータ) (2020-05-01T14:01:53Z) - Model Inversion Networks for Model-Based Optimization [110.24531801773392]
スコアから入力への逆写像を学習するモデル反転ネットワーク(MIN)を提案する。
MINは高次元の入力空間にスケールでき、コンテキスト最適化と非コンテキスト最適化の両方にオフラインログデータを利用する。
我々は,ベイズ最適化の文献から,画像やタンパク質の設計に対する高次元モデルベース最適化問題,ログデータからのコンテキスト的帯域最適化といったタスクのMINを評価した。
論文 参考訳(メタデータ) (2019-12-31T18:06:49Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。