論文の概要: Learning "best" kernels from data in Gaussian process regression. With
application to aerodynamics
- arxiv url: http://arxiv.org/abs/2206.02563v1
- Date: Fri, 3 Jun 2022 07:50:54 GMT
- ステータス: 処理完了
- システム内更新日: 2022-06-12 18:59:36.175048
- Title: Learning "best" kernels from data in Gaussian process regression. With
application to aerodynamics
- Title(参考訳): ガウスのプロセス回帰のデータから"ベスト"カーネルを学ぶ。
空気力学への応用
- Authors: Jean-Luc Akian and Luc Bonnet and Houman Owhadi and \'Eric Savin
- Abstract要約: 本稿では,ガウス過程の回帰/クリギングサロゲートモデリング手法におけるカーネルの選択/設計アルゴリズムを紹介する。
アルゴリズムの最初のクラスはカーネルフローであり、機械学習の分類の文脈で導入された。
アルゴリズムの第2のクラスはスペクトル核リッジ回帰と呼ばれ、近似される関数のノルムが最小となるような「最良の」カーネルを選択することを目的としている。
- 参考スコア(独自算出の注目度): 0.4588028371034406
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: This paper introduces algorithms to select/design kernels in Gaussian process
regression/kriging surrogate modeling techniques. We adopt the setting of
kernel method solutions in ad hoc functional spaces, namely Reproducing Kernel
Hilbert Spaces (RKHS), to solve the problem of approximating a regular target
function given observations of it, i.e. supervised learning. A first class of
algorithms is kernel flow, which was introduced in a context of classification
in machine learning. It can be seen as a nested cross-validation procedure
whereby a "best" kernel is selected such that the loss of accuracy incurred by
removing some part of the dataset (typically half of it) is minimized. A second
class of algorithms is called spectral kernel ridge regression, and aims at
selecting a "best" kernel such that the norm of the function to be approximated
is minimal in the associated RKHS. Within Mercer's theorem framework, we obtain
an explicit construction of that "best" kernel in terms of the main features of
the target function. Both approaches of learning kernels from data are
illustrated by numerical examples on synthetic test functions, and on a
classical test case in turbulence modeling validation for transonic flows about
a two-dimensional airfoil.
- Abstract(参考訳): 本稿では,ガウス過程の回帰/クリギングサロゲートモデリング手法におけるカーネルの選択/設計アルゴリズムを提案する。
そこで本研究では,アドホック関数空間におけるカーネル法解の設定,すなわちカーネルヒルベルト空間(rkhs)の再現を行い,その観察を与えられた正規対象関数,すなわち教師付き学習の近似問題を解く。
アルゴリズムの最初のクラスはカーネルフローであり、機械学習の分類の文脈で導入された。
ネストされたクロスバリデーションの手順として、データセットの一部(典型的には半分)を削除して発生する精度の損失を最小限に抑える「ベスト」カーネルを選択することができる。
第2のアルゴリズムはスペクトル核リッジ回帰と呼ばれ、関連するRKHSにおいて、近似される関数のノルムが最小となるような「最良の」カーネルを選択することを目的としている。
マーサーの定理の枠組みの中で、対象関数の主要な特徴の観点から、その「最良の」カーネルの明示的な構成を得る。
データからカーネルを学習する両方のアプローチは、合成テスト関数の数値例と、2次元翼まわりの超音速流れの乱流モデリング検証における古典的なテストケースによって示される。
関連論文リスト
- Optimal Kernel Choice for Score Function-based Causal Discovery [92.65034439889872]
本稿では,データに最も適合する最適なカーネルを自動的に選択する,一般化スコア関数内のカーネル選択手法を提案する。
合成データと実世界のベンチマークの両方で実験を行い,提案手法がカーネル選択法より優れていることを示す。
論文 参考訳(メタデータ) (2024-07-14T09:32:20Z) - On the Approximation of Kernel functions [0.0]
論文はカーネル自体の近似に対処する。
単位立方体上のヒルベルト・ガウス核に対して、この論文は関連する固有関数の上界を確立する。
この改良により、Nystr"om法のような低階近似法が確かめられる。
論文 参考訳(メタデータ) (2024-03-11T13:50:07Z) - Equation Discovery with Bayesian Spike-and-Slab Priors and Efficient Kernels [57.46832672991433]
ケルネル学習とBayesian Spike-and-Slab pres (KBASS)に基づく新しい方程式探索法を提案する。
カーネルレグレッションを用いてターゲット関数を推定する。これはフレキシブルで表現力があり、データ空間やノイズに対してより堅牢である。
我々は,効率的な後部推論と関数推定のための予測伝搬予測最大化アルゴリズムを開発した。
論文 参考訳(メタデータ) (2023-10-09T03:55:09Z) - Structural Kernel Search via Bayesian Optimization and Symbolical
Optimal Transport [5.1672267755831705]
ガウスのプロセスでは、カーネルの選択は重要なタスクであり、しばしば専門家が手動で行う。
本稿では,カーネル空間を包含する新しい効率的な探索法を提案する。
論文 参考訳(メタデータ) (2022-10-21T09:30:21Z) - On the Benefits of Large Learning Rates for Kernel Methods [110.03020563291788]
本稿では,カーネル手法のコンテキストにおいて,現象を正確に特徴付けることができることを示す。
分離可能なヒルベルト空間における2次対象の最小化を考慮し、早期停止の場合、学習速度の選択が得られた解のスペクトル分解に影響を及ぼすことを示す。
論文 参考訳(メタデータ) (2022-02-28T13:01:04Z) - Taming Nonconvexity in Kernel Feature Selection---Favorable Properties
of the Laplace Kernel [77.73399781313893]
カーネルベースの特徴選択の客観的機能を確立することが課題である。
非言語最適化に利用可能な勾配に基づくアルゴリズムは、局所ミニマへの収束を保証できるだけである。
論文 参考訳(メタデータ) (2021-06-17T11:05:48Z) - Kernel Identification Through Transformers [54.3795894579111]
カーネル選択はガウス過程(GP)モデルの性能決定において中心的な役割を果たす。
この研究は、高次元GP回帰モデルのためのカスタムカーネル関数を構築するという課題に対処する。
KITT: Kernel Identification through Transformersを提案する。
論文 参考訳(メタデータ) (2021-06-15T14:32:38Z) - Random Features for the Neural Tangent Kernel [57.132634274795066]
完全接続型ReLUネットワークのニューラルタンジェントカーネル(NTK)の効率的な特徴マップ構築を提案する。
得られた特徴の次元は、理論と実践の両方で比較誤差境界を達成するために、他のベースライン特徴マップ構造よりもはるかに小さいことを示しています。
論文 参考訳(メタデータ) (2021-04-03T09:08:12Z) - Advanced Stationary and Non-Stationary Kernel Designs for Domain-Aware
Gaussian Processes [0.0]
再生カーネルヒルベルト空間(RKHS)の要素である所望の特性を持つ関数のみを許容する先進カーネル設計を提案する。
いくつかの合成および2つの科学的データセットを用いて、先進的なカーネル設計がガウス過程に与える影響を示す。
論文 参考訳(メタデータ) (2021-02-05T22:07:56Z) - End-to-end Kernel Learning via Generative Random Fourier Features [31.57596752889935]
ランダムフーリエ機能(RFF)は、スペクトルケースでのカーネル学習に有望な方法を提供する。
本稿では,カーネル学習と線形学習を統一フレームワークに組み込む一段階プロセスについて考察する。
論文 参考訳(メタデータ) (2020-09-10T00:27:39Z) - Kernel Selection for Modal Linear Regression: Optimal Kernel and IRLS
Algorithm [8.571896191090744]
MLRパラメータの平均二乗誤差を最小化するという意味では,Biweightカーネルが最適であることを示す。
第2に、アルゴリズムを反復的に再重み付けした最小二乗アルゴリズム(IRLS)が収束することを保証したカーネルクラスを提供する。
論文 参考訳(メタデータ) (2020-01-30T03:57:07Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。