論文の概要: B\'ezier Gaussian Processes for Tall and Wide Data
- arxiv url: http://arxiv.org/abs/2209.00343v1
- Date: Thu, 1 Sep 2022 10:22:14 GMT
- ステータス: 処理完了
- システム内更新日: 2022-09-02 13:33:13.077133
- Title: B\'ezier Gaussian Processes for Tall and Wide Data
- Title(参考訳): B\'ezier Gaussian Processs for Tall and Wide Data
- Authors: Martin J{\o}rgensen and Michael A. Osborne
- Abstract要約: 入力機能の数に応じて指数関数的に変数の総和が増大するカーネルを導入する。
我々のカーネルはガウス過程の回帰において最もよく使われるカーネルのいくつかとよく似ていることを示す。
- 参考スコア(独自算出の注目度): 24.00638575411818
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Modern approximations to Gaussian processes are suitable for "tall data",
with a cost that scales well in the number of observations, but under-performs
on ``wide data'', scaling poorly in the number of input features. That is, as
the number of input features grows, good predictive performance requires the
number of summarising variables, and their associated cost, to grow rapidly. We
introduce a kernel that allows the number of summarising variables to grow
exponentially with the number of input features, but requires only linear cost
in both number of observations and input features. This scaling is achieved
through our introduction of the B\'ezier buttress, which allows approximate
inference without computing matrix inverses or determinants. We show that our
kernel has close similarities to some of the most used kernels in Gaussian
process regression, and empirically demonstrate the kernel's ability to scale
to both tall and wide datasets.
- Abstract(参考訳): ガウス過程に対する現代の近似は「全てのデータ」に適しており、観測回数は良くスケールするが、'ワイドデータ'では性能が低く、入力特徴数ではスケールが不十分である。
つまり、入力機能の数が増加するにつれて、優れた予測性能には、変数の総数とその関連するコストが急速に増加する必要がある。
本稿では,入力特徴量に比例して指数関数的に拡張できるカーネルを導入するが,観測数と入力特徴量の両方において線形コストしか必要としない。
このスケーリングは、行列逆数や行列式を使わずに近似推論が可能なB\'ezier buttressの導入によって達成される。
我々のカーネルはガウスのプロセスレグレッションにおいて最もよく使われているカーネルのいくつかとよく似ており、カーネルが高いデータセットと広いデータセットの両方にスケールできることを実証的に示す。
関連論文リスト
- Random Fourier Signature Features [9.85256783464329]
代数はシグネチャカーネルと呼ばれる任意の長さの列の類似性の最も強力な尺度の1つを生み出す。
署名カーネルのスケールを、配列の長さと数で2次的に計算する以前のアルゴリズム。
本研究では,非ユークリッド領域に作用するシグネチャカーネルのランダムなフーリエ特徴量に基づくアクセラレーションを開発する。
論文 参考訳(メタデータ) (2023-11-20T22:08:17Z) - Equation Discovery with Bayesian Spike-and-Slab Priors and Efficient
Kernels [60.35011738807833]
ケルネル学習とBayesian Spike-and-Slab pres (KBASS)に基づく新しい方程式探索法を提案する。
カーネルレグレッションを用いてターゲット関数を推定する。これはフレキシブルで表現力があり、データ空間やノイズに対してより堅牢である。
我々は、ベンチマークODEとPDE発見タスクのリストにおいて、KBASSの顕著な利点を示す。
論文 参考訳(メタデータ) (2023-10-09T03:55:09Z) - Local Random Feature Approximations of the Gaussian Kernel [14.230653042112834]
本稿では,一般的なガウスカーネルと,ランダムな特徴近似を用いてカーネルベースモデルを線形化する手法に着目する。
このような手法は、高周波データをモデル化する際、悪い結果をもたらすことを示すとともに、カーネル近似と下流性能を大幅に改善する新たなローカライズ手法を提案する。
論文 参考訳(メタデータ) (2022-04-12T09:52:36Z) - Improved Random Features for Dot Product Kernels [15.139805638991122]
我々はドット製品カーネルのランダムな特徴近似の効率を改善するために、いくつかの新しい貢献をしている。
複雑な特徴の利用はこれらの近似のばらつきを著しく減少させることができることを実証的に示す。
また,一般のドット製品カーネルに対するランダムな特徴近似に対するデータ駆動最適化手法を開発した。
論文 参考訳(メタデータ) (2022-01-21T14:16:56Z) - Scalable Variational Gaussian Processes via Harmonic Kernel
Decomposition [54.07797071198249]
汎用性を維持しつつ高い忠実度近似を提供する,スケーラブルな変分ガウス過程近似を導入する。
様々な回帰問題や分類問題において,本手法は変換やリフレクションなどの入力空間対称性を活用できることを実証する。
提案手法は, 純粋なGPモデルのうち, CIFAR-10 の最先端化を実現する。
論文 参考訳(メタデータ) (2021-06-10T18:17:57Z) - Providing Meaningful Data Summarizations Using Examplar-based Clustering
in Industry 4.0 [67.80123919697971]
我々は,従来のCPUアルゴリズムと比較して,一精度で最大72倍,半精度で最大452倍の高速化を実現していることを示す。
提案アルゴリズムは射出成形プロセスから得られた実世界のデータに適用し, 得られたサマリーが, コスト削減と不良部品製造の削減のために, この特定のプロセスのステアリングにどのように役立つかについて議論する。
論文 参考訳(メタデータ) (2021-05-25T15:55:14Z) - Random Features for the Neural Tangent Kernel [57.132634274795066]
完全接続型ReLUネットワークのニューラルタンジェントカーネル(NTK)の効率的な特徴マップ構築を提案する。
得られた特徴の次元は、理論と実践の両方で比較誤差境界を達成するために、他のベースライン特徴マップ構造よりもはるかに小さいことを示しています。
論文 参考訳(メタデータ) (2021-04-03T09:08:12Z) - Gauss-Legendre Features for Gaussian Process Regression [7.37712470421917]
カーネル行列の低階近似を用いてガウス過程の回帰をスケールアップするためのガウス・レーゲンドル二次法を提案する。
この手法はよく知られたランダムなフーリエ特徴法に触発され、数値積分による低ランク近似も構築する。
論文 参考訳(メタデータ) (2021-01-04T18:09:25Z) - Kernel methods through the roof: handling billions of points efficiently [94.31450736250918]
カーネル法は、非パラメトリック学習に対するエレガントで原則化されたアプローチを提供するが、今のところ大規模な問題ではほとんど利用できない。
最近の進歩は、最適化、数値線形代数、ランダム射影など、多くのアルゴリズム的アイデアの利点を示している。
ここでは、これらの取り組みをさらに進めて、GPUハードウェアを最大限に活用する解決器を開発し、テストする。
論文 参考訳(メタデータ) (2020-06-18T08:16:25Z) - Improved guarantees and a multiple-descent curve for Column Subset
Selection and the Nystr\"om method [76.73096213472897]
我々は,データ行列のスペクトル特性を利用して近似保証を改良する手法を開発した。
我々のアプローチは、特異値減衰の既知の速度を持つデータセットのバウンダリが大幅に向上する。
RBFパラメータを変更すれば,改良された境界線と多重発振曲線の両方を実データセット上で観測できることが示される。
論文 参考訳(メタデータ) (2020-02-21T00:43:06Z) - Randomly Projected Additive Gaussian Processes for Regression [37.367935314532154]
GPレグレッションにはカーネルの加算和を使用し、各カーネルはその入力の異なるランダムなプロジェクションで動作する。
この収束とその速度を証明し、純粋にランダムな射影よりも早く収束する決定論的アプローチを提案する。
論文 参考訳(メタデータ) (2019-12-30T07:26:18Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。