論文の概要: Promises and Pitfalls of the Linearized Laplace in Bayesian Optimization
- arxiv url: http://arxiv.org/abs/2304.08309v2
- Date: Mon, 10 Jul 2023 16:35:03 GMT
- ステータス: 処理完了
- システム内更新日: 2023-07-13 19:28:31.813953
- Title: Promises and Pitfalls of the Linearized Laplace in Bayesian Optimization
- Title(参考訳): ベイズ最適化における線形ラプラスの約束と落とし穴
- Authors: Agustinus Kristiadi, Alexander Immer, Runa Eschenhagen, Vincent
Fortuin
- Abstract要約: 線形化ラプラス近似(LLA)はベイズニューラルネットワークの構築に有効で効率的であることが示されている。
ベイズ最適化におけるLLAの有用性について検討し,その性能と柔軟性を強調した。
- 参考スコア(独自算出の注目度): 73.80101701431103
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The linearized-Laplace approximation (LLA) has been shown to be effective and
efficient in constructing Bayesian neural networks. It is theoretically
compelling since it can be seen as a Gaussian process posterior with the mean
function given by the neural network's maximum-a-posteriori predictive function
and the covariance function induced by the empirical neural tangent kernel.
However, while its efficacy has been studied in large-scale tasks like image
classification, it has not been studied in sequential decision-making problems
like Bayesian optimization where Gaussian processes -- with simple mean
functions and kernels such as the radial basis function -- are the de-facto
surrogate models. In this work, we study the usefulness of the LLA in Bayesian
optimization and highlight its strong performance and flexibility. However, we
also present some pitfalls that might arise and a potential problem with the
LLA when the search space is unbounded.
- Abstract(参考訳): 線形化ラプラス近似(LLA)はベイズニューラルネットワークの構築に有効で効率的であることが示されている。
理論上は、ニューラルネットワークの最大ポストリリリ予測関数と経験的神経接核によって引き起こされる共分散関数によって与えられる平均関数と後続のガウス過程と見なすことができるので、説得力がある。
しかしながら、画像分類などの大規模タスクにおいてその有効性は研究されているが、ガウス過程 -- 単純な平均関数とラジアル基底関数のようなカーネル -- がデファクトサロゲートモデルであるベイズ最適化のような逐次決定問題では研究されていない。
本研究では,ベイズ最適化におけるLLAの有用性について検討し,その性能と柔軟性を強調した。
しかし, 探索空間が非有界である場合にも, LLAに潜在的な問題が発生する可能性がある。
関連論文リスト
- Nonlinear functional regression by functional deep neural network with
kernel embedding [20.306390874610635]
本稿では,効率的かつ完全なデータ依存型次元減少法を備えた機能的ディープニューラルネットワークを提案する。
機能ネットのアーキテクチャは、カーネル埋め込みステップ、プロジェクションステップ、予測のための深いReLUニューラルネットワークで構成される。
スムーズなカーネル埋め込みを利用することで、我々の関数ネットは離散化不変であり、効率的で、頑健でノイズの多い観測が可能となる。
論文 参考訳(メタデータ) (2024-01-05T16:43:39Z) - The limitation of neural nets for approximation and optimization [0.0]
最適化問題における目的関数の近似と最小化のために,ニューラルネットワークを代理モデルとして用いることに関心がある。
本研究は、一般的な非線形最適化テスト問題の目的関数を近似する最適なアクティベーション関数を決定することから始まる。
論文 参考訳(メタデータ) (2023-11-21T00:21:15Z) - Equation Discovery with Bayesian Spike-and-Slab Priors and Efficient Kernels [57.46832672991433]
ケルネル学習とBayesian Spike-and-Slab pres (KBASS)に基づく新しい方程式探索法を提案する。
カーネルレグレッションを用いてターゲット関数を推定する。これはフレキシブルで表現力があり、データ空間やノイズに対してより堅牢である。
我々は,効率的な後部推論と関数推定のための予測伝搬予測最大化アルゴリズムを開発した。
論文 参考訳(メタデータ) (2023-10-09T03:55:09Z) - On the Benefits of Large Learning Rates for Kernel Methods [110.03020563291788]
本稿では,カーネル手法のコンテキストにおいて,現象を正確に特徴付けることができることを示す。
分離可能なヒルベルト空間における2次対象の最小化を考慮し、早期停止の場合、学習速度の選択が得られた解のスペクトル分解に影響を及ぼすことを示す。
論文 参考訳(メタデータ) (2022-02-28T13:01:04Z) - A Robust Asymmetric Kernel Function for Bayesian Optimization, with
Application to Image Defect Detection in Manufacturing Systems [2.4278445972594525]
我々は、ロバストなカーネル関数、非対称な弾性ネットラジアル基底関数(AEN-RBF)を提案する。
理論的には、AEN-RBFは穏やかな条件下でより小さな平均2乗予測誤差を実現できることを示す。
また、AEN-RBFカーネル関数は、外れ値に対する感度が低いことも示している。
論文 参考訳(メタデータ) (2021-09-22T17:59:05Z) - Going Beyond Linear RL: Sample Efficient Neural Function Approximation [76.57464214864756]
2層ニューラルネットワークによる関数近似について検討する。
この結果は線形(あるいは可溶性次元)法で達成できることを大幅に改善する。
論文 参考訳(メタデータ) (2021-07-14T03:03:56Z) - CDiNN -Convex Difference Neural Networks [0.8122270502556374]
reluアクティベーション関数を持つニューラルネットワークは、普遍関数近似が非スムース関数として関数マッピングを学ぶことが示されている。
ICNNと呼ばれる新しいニューラルネットワークアーキテクチャは、凸入力として出力を学習する。
論文 参考訳(メタデータ) (2021-03-31T17:31:16Z) - Sequential Subspace Search for Functional Bayesian Optimization
Incorporating Experimenter Intuition [63.011641517977644]
本アルゴリズムは,実験者のガウス過程から引き出された一組の引き数で区切られた関数空間の有限次元ランダム部分空間列を生成する。
標準ベイズ最適化は各部分空間に適用され、次の部分空間の出発点(オリジン)として用いられる最良の解である。
シミュレーションおよび実世界の実験,すなわちブラインド関数マッチング,アルミニウム合金の最適析出強化関数の探索,深層ネットワークの学習速度スケジュール最適化において,本アルゴリズムを検証した。
論文 参考訳(メタデータ) (2020-09-08T06:54:11Z) - SLEIPNIR: Deterministic and Provably Accurate Feature Expansion for
Gaussian Process Regression with Derivatives [86.01677297601624]
本稿では,2次フーリエ特徴に基づく導関数によるGP回帰のスケーリング手法を提案する。
我々は、近似されたカーネルと近似された後部の両方に適用される決定論的、非漸近的、指数関数的に高速な崩壊誤差境界を証明した。
論文 参考訳(メタデータ) (2020-03-05T14:33:20Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。