論文の概要: Deep kernel processes
- arxiv url: http://arxiv.org/abs/2010.01590v2
- Date: Sun, 30 May 2021 12:23:26 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-11 03:14:45.203296
- Title: Deep kernel processes
- Title(参考訳): ディープカーネルプロセス
- Authors: Laurence Aitchison, Adam X. Yang, Sebastian W. Ober
- Abstract要約: 深いガウス過程(DGP)、ベイズニューラルネットワーク(BNN)、無限のBNN、ボトルネックのある無限のBNNは、すべてディープカーネルプロセスとして記述できる。
DGP について、同値性は、特徴の内積によって形成されるグラム行列がウィッシュアート分布であるから生じる。
深部逆ウィッシュアート法は、標準完全連結ベースライン上でのDGPおよび無限BNNよりも優れた性能を示すことを示す。
- 参考スコア(独自算出の注目度): 34.99042782396683
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We define deep kernel processes in which positive definite Gram matrices are
progressively transformed by nonlinear kernel functions and by sampling from
(inverse) Wishart distributions. Remarkably, we find that deep Gaussian
processes (DGPs), Bayesian neural networks (BNNs), infinite BNNs, and infinite
BNNs with bottlenecks can all be written as deep kernel processes. For DGPs the
equivalence arises because the Gram matrix formed by the inner product of
features is Wishart distributed, and as we show, standard isotropic kernels can
be written entirely in terms of this Gram matrix -- we do not need knowledge of
the underlying features. We define a tractable deep kernel process, the deep
inverse Wishart process, and give a doubly-stochastic inducing-point
variational inference scheme that operates on the Gram matrices, not on the
features, as in DGPs. We show that the deep inverse Wishart process gives
superior performance to DGPs and infinite BNNs on standard fully-connected
baselines.
- Abstract(参考訳): 正定値グラム行列を非線形核関数や(逆)ウィッシュアート分布からサンプリングすることで漸進的に変換する深い核過程を定義する。
注目すべきは、ディープガウス過程(DGP)、ベイズニューラルネットワーク(BNN)、無限のBNN、ボトルネックのある無限のBNNはすべてディープカーネルプロセスとして記述できることである。
dgps の同値性は、特徴の内積によって形成されるグラム行列がウィッシュアート分布であるためであり、我々が示すように、標準等方性核は、このグラム行列を用いて完全に書くことができる。
抽出可能なディープカーネルプロセス、ディープ逆ウィッシュアートプロセスを定義し、DGPのような機能ではなくGram行列上で動作する二重確率なインジェクションポイント変分推論スキームを提供する。
深部逆ウィッシュアート法は、標準完全連結ベースライン上でのDGPおよび無限BNNよりも優れた性能を示すことを示す。
関連論文リスト
- Thin and Deep Gaussian Processes [43.22976185646409]
本研究は,ThinとDeep GP(TDGP)の両アプローチの新しい合成法を提案する。
また,TDGPが入力データ中の低次元多様体を特異的に検出するように調整されていること,TDGPが層数を増やすとうまく振る舞うこと,TDGPが標準ベンチマークデータセットで良好に動作すること,などを理論的および実験的に示す。
論文 参考訳(メタデータ) (2023-10-17T18:50:24Z) - Wide Neural Networks as Gaussian Processes: Lessons from Deep
Equilibrium Models [16.07760622196666]
本研究では,層間における共有重み行列を持つ無限深度ニューラルネットワークであるDeep equilibrium Model (DEQ)について検討する。
解析により,DEC層の幅が無限大に近づくにつれ,ガウス過程に収束することが明らかとなった。
注目すべきは、この収束は深さと幅の限界が交換されても成り立つことである。
論文 参考訳(メタデータ) (2023-10-16T19:00:43Z) - On the Sublinear Regret of GP-UCB [58.25014663727544]
ガウス過程上信頼境界 (GP-UCB) アルゴリズムは, ほぼ最適の後悔率を有することを示す。
私たちの改善は、基盤となるカーネルの滑らかさに比例してカーネルリッジ推定を正規化するという、重要な技術的貢献に依存しています。
論文 参考訳(メタデータ) (2023-07-14T13:56:11Z) - An Improved Variational Approximate Posterior for the Deep Wishart
Process [24.442174952832108]
ディープカーネルプロセスは、最近導入されたディープベイズモデルのクラスである。
それらは正の半定値行列上の分布からグラム行列をサンプリングすることによって動作する。
さらに,行と列の線形結合が可能であるように分布を一般化することで,予測性能が向上することを示す。
論文 参考訳(メタデータ) (2023-05-23T18:26:29Z) - Sample-Then-Optimize Batch Neural Thompson Sampling [50.800944138278474]
我々はトンプソンサンプリング(TS)ポリシーに基づくブラックボックス最適化のための2つのアルゴリズムを提案する。
入力クエリを選択するには、NNをトレーニングし、トレーニングされたNNを最大化してクエリを選択するだけです。
我々のアルゴリズムは、大きなパラメータ行列を逆転する必要性を助長するが、TSポリシーの妥当性は保たれている。
論文 参考訳(メタデータ) (2022-10-13T09:01:58Z) - A theory of representation learning gives a deep generalisation of
kernel methods [22.260038428890383]
我々は、新しい無限幅制限、ベイズ表現学習限界を開発する。
有限幅モデルにおける表現学習ミラーリングを示す。
次に、この制限と目的を、カーネルメソッドの柔軟な、より深い一般化として使用できる可能性を紹介します。
論文 参考訳(メタデータ) (2021-08-30T10:07:37Z) - A variational approximate posterior for the deep Wishart process [23.786649328915093]
最近の研究は、NNの完全なカーネルベースの代替としてディープカーネルプロセスを導入した。
正半定値行列上の柔軟な分布を得るための新しいアプローチを提案する。
我々は,深部ウィッシュアートプロセスにおける推論が,DGPにおける推論よりも性能を向上することを示す。
論文 参考訳(メタデータ) (2021-07-21T14:48:27Z) - Kernel Identification Through Transformers [54.3795894579111]
カーネル選択はガウス過程(GP)モデルの性能決定において中心的な役割を果たす。
この研究は、高次元GP回帰モデルのためのカスタムカーネル関数を構築するという課題に対処する。
KITT: Kernel Identification through Transformersを提案する。
論文 参考訳(メタデータ) (2021-06-15T14:32:38Z) - Neural Splines: Fitting 3D Surfaces with Infinitely-Wide Neural Networks [61.07202852469595]
本稿では,無限幅浅部ReLUネットワークから生じるランダムな特徴カーネルをベースとした3次元表面再構成手法であるNeural Splinesを提案する。
提案手法は,最近のニューラルネットワーク技術より優れ,ポアソン表面再構成に広く用いられている。
論文 参考訳(メタデータ) (2020-06-24T14:54:59Z) - Infinitely Wide Graph Convolutional Networks: Semi-supervised Learning
via Gaussian Processes [144.6048446370369]
グラフ畳み込みニューラルネットワーク(GCN)は近年,グラフに基づく半教師付き半教師付き分類において有望な結果を示した。
グラフに基づく半教師付き学習のためのGCN(GPGC)を用いたGP回帰モデルを提案する。
GPGCを評価するための広範囲な実験を行い、他の最先端手法よりも優れていることを示す。
論文 参考訳(メタデータ) (2020-02-26T10:02:32Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。