論文の概要: Thompson Sampling in Function Spaces via Neural Operators
- arxiv url: http://arxiv.org/abs/2506.21894v1
- Date: Fri, 27 Jun 2025 04:21:57 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-06-30 21:12:23.080757
- Title: Thompson Sampling in Function Spaces via Neural Operators
- Title(参考訳): ニューラル演算子による関数空間のトンプソンサンプリング
- Authors: Rafael Oliveira, Xuesong Wang, Kian Ming A. Chai, Edwin V. Bonilla,
- Abstract要約: 目的が未知作用素の出力の既知の関数である関数空間上の問題を最適化するために、トンプソンサンプリングの拡張を提案する。
提案アルゴリズムは,ニューラル演算子サロゲートを用いたサンプル列最適化手法を用いる。
- 参考スコア(独自算出の注目度): 14.0301500809197
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: We propose an extension of Thompson sampling to optimization problems over function spaces where the objective is a known functional of an unknown operator's output. We assume that functional evaluations are inexpensive, while queries to the operator (such as running a high-fidelity simulator) are costly. Our algorithm employs a sample-then-optimize approach using neural operator surrogates. This strategy avoids explicit uncertainty quantification by treating trained neural operators as approximate samples from a Gaussian process. We provide novel theoretical convergence guarantees, based on Gaussian processes in the infinite-dimensional setting, under minimal assumptions. We benchmark our method against existing baselines on functional optimization tasks involving partial differential equations and other nonlinear operator-driven phenomena, demonstrating improved sample efficiency and competitive performance.
- Abstract(参考訳): 目的が未知作用素の出力の既知の関数である関数空間上の問題を最適化するために、トンプソンサンプリングの拡張を提案する。
機能評価は安価であると仮定し、演算子への問い合わせ(高忠実度シミュレータの実行など)はコストがかかる。
提案アルゴリズムは,ニューラル演算子サロゲートを用いたサンプル列最適化手法を用いる。
この戦略は、訓練されたニューラル演算子をガウス過程から近似したサンプルとして扱うことにより、明確な不確実性定量化を避ける。
最小の仮定の下で、無限次元の設定におけるガウス過程に基づく新しい理論収束保証を提供する。
偏微分方程式やその他の非線形演算子駆動現象を含む関数最適化タスクに対して,本手法を既存のベースラインに対してベンチマークし,サンプル効率と競争性能の向上を実証した。
関連論文リスト
- Explicit and Implicit Graduated Optimization in Deep Neural Networks [0.6906005491572401]
本稿では,最適雑音スケジューリングを用いた明示的な累積最適化アルゴリズムの性能を実験的に評価する。
さらに、ResNetアーキテクチャを用いた画像分類タスクの実験を通じて、その効果を実証する。
論文 参考訳(メタデータ) (2024-12-16T07:23:22Z) - Sample-efficient Bayesian Optimisation Using Known Invariances [56.34916328814857]
バニラと制約付きBOアルゴリズムは、不変目的を最適化する際の非効率性を示す。
我々はこれらの不変カーネルの最大情報ゲインを導出する。
核融合炉用電流駆動システムの設計に本手法を用い, 高性能溶液の探索を行った。
論文 参考訳(メタデータ) (2024-10-22T12:51:46Z) - Operator Learning Using Random Features: A Tool for Scientific Computing [3.745868534225104]
教師付き演算子学習センターは、無限次元空間間のマップを推定するためにトレーニングデータを使用する。
本稿では,関数値のランダム特徴量法を提案する。
これは非線形問題に対して実用的な教師付き演算子学習アーキテクチャをもたらす。
論文 参考訳(メタデータ) (2024-08-12T23:10:39Z) - Linearization Turns Neural Operators into Function-Valued Gaussian Processes [23.85470417458593]
我々は、訓練されたニューラル演算子におけるベイズの不確実性定量化を近似するための新しいフレームワークLUNOを紹介する。
我々の手法はモデル線形化を利用して(ガウス的)重み空間の不確実性をニューラル作用素の予測に推し進める。
これは関数型プログラミングのカリー化の概念の確率的バージョンとして解釈でき、関数値(ガウス的)ランダムプロセスの信念を導出することを示す。
論文 参考訳(メタデータ) (2024-06-07T16:43:54Z) - Learning Unnormalized Statistical Models via Compositional Optimization [73.30514599338407]
実データと人工雑音のロジスティックな損失として目的を定式化することにより, ノイズコントラスト推定(NCE)を提案する。
本稿では,非正規化モデルの負の対数類似度を最適化するための直接的アプローチについて検討する。
論文 参考訳(メタデータ) (2023-06-13T01:18:16Z) - Promises and Pitfalls of the Linearized Laplace in Bayesian Optimization [73.80101701431103]
線形化ラプラス近似(LLA)はベイズニューラルネットワークの構築に有効で効率的であることが示されている。
ベイズ最適化におけるLLAの有用性について検討し,その性能と柔軟性を強調した。
論文 参考訳(メタデータ) (2023-04-17T14:23:43Z) - Surrogate modeling for Bayesian optimization beyond a single Gaussian
process [62.294228304646516]
本稿では,探索空間の活用と探索のバランスをとるための新しいベイズ代理モデルを提案する。
拡張性のある関数サンプリングを実現するため、GPモデル毎にランダムな特徴ベースのカーネル近似を利用する。
提案した EGP-TS を大域的最適に収束させるため,ベイズ的後悔の概念に基づいて解析を行う。
論文 参考訳(メタデータ) (2022-05-27T16:43:10Z) - Sequential Subspace Search for Functional Bayesian Optimization
Incorporating Experimenter Intuition [63.011641517977644]
本アルゴリズムは,実験者のガウス過程から引き出された一組の引き数で区切られた関数空間の有限次元ランダム部分空間列を生成する。
標準ベイズ最適化は各部分空間に適用され、次の部分空間の出発点(オリジン)として用いられる最良の解である。
シミュレーションおよび実世界の実験,すなわちブラインド関数マッチング,アルミニウム合金の最適析出強化関数の探索,深層ネットワークの学習速度スケジュール最適化において,本アルゴリズムを検証した。
論文 参考訳(メタデータ) (2020-09-08T06:54:11Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。