論文の概要: A fast point solver for deep nonlinear function approximators
- arxiv url: http://arxiv.org/abs/2108.13097v1
- Date: Mon, 30 Aug 2021 10:07:37 GMT
- ステータス: 処理完了
- システム内更新日: 2021-08-31 14:55:47.484850
- Title: A fast point solver for deep nonlinear function approximators
- Title(参考訳): 深部非線形関数近似器のための高速点解法
- Authors: Laurence Aitchison
- Abstract要約: ディープカーネルプロセス(DKP)はベイズニューラルネットワークを一般化するが、特徴または重みの両方を表現する必要はない。
行列解法を利用して約10ステップで収束するDKPのニュートンライクな手法を開発した。
- 参考スコア(独自算出の注目度): 23.786649328915093
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Deep kernel processes (DKPs) generalise Bayesian neural networks, but do not
require us to represent either features or weights. Instead, at each hidden
layer they represent and optimize a flexible kernel. Here, we develop a
Newton-like method for DKPs that converges in around 10 steps, exploiting
matrix solvers initially developed in the control theory literature. These are
many times faster the usual gradient descent approach. We generalise to
arbitrary DKP architectures, by developing "kernel backprop", and algorithms
for "kernel autodiff". While these methods currently are not Bayesian as they
give point estimates and scale poorly as they are cubic in the number of
datapoints, we hope they will form the basis of a new class of much more
efficient approaches to optimizing deep nonlinear function approximators.
- Abstract(参考訳): ディープカーネルプロセス(DKP)はベイズニューラルネットワークを一般化するが、特徴または重みの両方を表現する必要はない。
代わりに、隠れたレイヤごとにフレキシブルなカーネルを表現し、最適化する。
そこで我々は,制御理論の文献で最初に開発された行列解法を利用して,約10ステップで収束するDKPのニュートン様法を開発した。
これらは通常の勾配降下アプローチの何倍も高速である。
我々は、任意のdkpアーキテクチャに一般化し、"kernel backprop" と "kernel autodiff" のアルゴリズムを開発する。
これらの手法は現在ベイズ的ではないため、点の推定値を与え、データポイントの数で立方体であるため、スケールが不十分であるが、より効率的なアプローチでより深い非線形関数近似器を最適化する手法の基礎を形成することを願っている。
関連論文リスト
- Contraction rates for conjugate gradient and Lanczos approximate posteriors in Gaussian process regression [0.0]
我々は確率的数値の分野から最近提案された近似アルゴリズムのクラスを分析する。
数値解析結果とカーネル行列のスペクトルのアート集中結果の状態を組み合わせ、最小値の収縮率を求める。
論文 参考訳(メタデータ) (2024-06-18T14:50:42Z) - The Convex Landscape of Neural Networks: Characterizing Global Optima
and Stationary Points via Lasso Models [75.33431791218302]
ディープニューラルネットワーク(DNN)モデルは、プログラミング目的に使用される。
本稿では,凸型神経回復モデルについて検討する。
定常的非次元目的物はすべて,グローバルサブサンプリング型凸解法プログラムとして特徴付けられることを示す。
また, 静止非次元目的物はすべて, グローバルサブサンプリング型凸解法プログラムとして特徴付けられることを示す。
論文 参考訳(メタデータ) (2023-12-19T23:04:56Z) - Controlling the Inductive Bias of Wide Neural Networks by Modifying the Kernel's Spectrum [18.10812063219831]
所望の固有値を持つカーネルに改良スペクトルカーネル(MSK)を導入する。
本研究では,勾配勾配の軌道を変化させる事前条件付き勾配降下法を提案する。
私たちの手法は計算効率が良く、実装も簡単です。
論文 参考訳(メタデータ) (2023-07-26T22:39:47Z) - Higher-order topological kernels via quantum computation [68.8204255655161]
トポロジカルデータ分析(TDA)は、複雑なデータから意味のある洞察を抽出する強力なツールとして登場した。
本稿では,ベッチ曲線の次数増加に基づくBettiカーネルの量子的定義法を提案する。
論文 参考訳(メタデータ) (2023-07-14T14:48:52Z) - A Unified Algebraic Perspective on Lipschitz Neural Networks [88.14073994459586]
本稿では,様々なタイプの1-Lipschitzニューラルネットワークを統一する新しい視点を提案する。
そこで本研究では,SDP(Common semidefinite Programming)条件の解析解を求めることによって,既存の多くの手法を導出し,一般化することができることを示す。
SDPベースのLipschitz Layers (SLL) と呼ばれる我々のアプローチは、非自明で効率的な凸ポテンシャル層の一般化を設計できる。
論文 参考訳(メタデータ) (2023-03-06T14:31:09Z) - A Generalized EigenGame with Extensions to Multiview Representation
Learning [0.28647133890966997]
一般化固有値問題(GEPs)は、様々な興味深い次元減少法を含んでいる。
我々は、ラグランジュ乗算器によって全ての制約がソフトに強制されるGEPの解法を開発する。
線形の場合、我々のアプローチは、以前のヘビアンとゲーム理論のアプローチの理論的根拠の多くを共有していることを示す。
標準マルチビューデータセットの設定におけるGEPの解法の有効性を実証する。
論文 参考訳(メタデータ) (2022-11-21T10:11:13Z) - Gaussian Processes and Statistical Decision-making in Non-Euclidean
Spaces [96.53463532832939]
我々はガウス過程の適用性を高める技術を開発した。
この観点から構築した効率的な近似を幅広く導入する。
非ユークリッド空間上のガウス過程モデルの集合を開発する。
論文 参考訳(メタデータ) (2022-02-22T01:42:57Z) - Conditional Deep Gaussian Processes: empirical Bayes hyperdata learning [6.599344783327054]
本稿では,階層構成における中間GPをハイパーデータでサポートする条件付きDeep Gaussian Process (DGP)を提案する。
潜時空間における高密度ハイパーデータ限界における深層カーネル学習の等価性を示す。
予備補間の結果は,提案モデルがGPカーネル構成,DGP変分推論,深層カーネル学習と比較して表現力を示す。
論文 参考訳(メタデータ) (2021-10-01T17:50:48Z) - Scalable Variational Gaussian Processes via Harmonic Kernel
Decomposition [54.07797071198249]
汎用性を維持しつつ高い忠実度近似を提供する,スケーラブルな変分ガウス過程近似を導入する。
様々な回帰問題や分類問題において,本手法は変換やリフレクションなどの入力空間対称性を活用できることを実証する。
提案手法は, 純粋なGPモデルのうち, CIFAR-10 の最先端化を実現する。
論文 参考訳(メタデータ) (2021-06-10T18:17:57Z) - Bayesian Deep Ensembles via the Neural Tangent Kernel [49.569912265882124]
我々は、ニューラルタンジェントカーネル(NTK)のレンズを通して、ディープアンサンブルとガウス過程(GP)の関連を探索する。
そこで本研究では,各アンサンブルメンバーに対して,計算可能でランダム化され,訓練不能な関数を追加することで,標準的なディープアンサンブルトレーニングに簡単な修正を加える。
我々はベイズ深部アンサンブルが無限幅極限における標準深部アンサンブルよりも保守的な予測を行うことを証明した。
論文 参考訳(メタデータ) (2020-07-11T22:10:52Z) - Intrinsic Gaussian Processes on Manifolds and Their Accelerations by
Symmetry [9.773237080061815]
既存の手法は主に熱核推定のための低次元制約領域に焦点を当てている。
本研究は一般方程式上でGPを構築するための本質的なアプローチを提案する。
本手法は指数写像を用いてブラウン運動サンプル経路をシミュレーションすることにより熱核を推定する。
論文 参考訳(メタデータ) (2020-06-25T09:17:40Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。