論文の概要: A Joint introduction to Gaussian Processes and Relevance Vector Machines
with Connections to Kalman filtering and other Kernel Smoothers
- arxiv url: http://arxiv.org/abs/2009.09217v4
- Date: Sun, 11 Jul 2021 19:28:28 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-16 20:53:40.723219
- Title: A Joint introduction to Gaussian Processes and Relevance Vector Machines
with Connections to Kalman filtering and other Kernel Smoothers
- Title(参考訳): カルマンフィルターと他のカーネルスモーザーとの接続によるガウス過程と関連ベクトルマシンの合同紹介
- Authors: Luca Martino, Jesse Read
- Abstract要約: 本稿では,確率ベイズ的スキームの領域にまたがる2つの手法と回帰のためのカーネル手法を紹介する。
これらのモデルの背後にある数学的概念の理解を提供し、他の手法との関係を強調する。
これは、この2つの手法に焦点を当てた、これまでで最も詳細な研究であり、データサイエンス、信号処理、機械学習、人工知能全般の領域における理論的な理解と実践者に関連する。
- 参考スコア(独自算出の注目度): 5.035807711584951
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The expressive power of Bayesian kernel-based methods has led them to become
an important tool across many different facets of artificial intelligence, and
useful to a plethora of modern application domains, providing both power and
interpretability via uncertainty analysis. This article introduces and
discusses two methods which straddle the areas of probabilistic Bayesian
schemes and kernel methods for regression: Gaussian Processes and Relevance
Vector Machines. Our focus is on developing a common framework with which to
view these methods, via intermediate methods a probabilistic version of the
well-known kernel ridge regression, and drawing connections among them, via
dual formulations, and discussion of their application in the context of major
tasks: regression, smoothing, interpolation, and filtering. Overall, we provide
understanding of the mathematical concepts behind these models, and we
summarize and discuss in depth different interpretations and highlight the
relationship to other methods, such as linear kernel smoothers, Kalman
filtering and Fourier approximations. Throughout, we provide numerous figures
to promote understanding, and we make numerous recommendations to
practitioners. Benefits and drawbacks of the different techniques are
highlighted. To our knowledge, this is the most in-depth study of its kind to
date focused on these two methods, and will be relevant to theoretical
understanding and practitioners throughout the domains of data-science, signal
processing, machine learning, and artificial intelligence in general.
- Abstract(参考訳): ベイジアンカーネルベースの手法の表現力は、人工知能のさまざまな側面にまたがる重要なツールとなり、多くの現代的なアプリケーションドメインに役立ち、不確実性分析によるパワーと解釈可能性の両方を提供する。
本稿では,確率ベイズスキームの領域にまたがる2つの手法と回帰のためのカーネル法,ガウス過程と関連ベクトルマシンについて述べる。
我々は,これらの手法を中間的手法,よく知られたカーネルリッジ回帰(kernel ridge regression)の確率的バージョン,二重定式化(dual formulas)によるそれらの接続の描画,主要なタスク(regressive, smoothing, interpolation, filter)のコンテキストにおけるそれらの応用に関する議論といった共通フレームワークの開発に焦点をあてている。
全体として、これらのモデルの背後にある数学的概念を理解し、異なる解釈を深く要約し議論し、線形核スムーサ、カルマンフィルタリング、フーリエ近似など他の方法との関係を強調する。
全体としては,理解を促進するために多数の図面を提供し,実践者には多数の推薦を行う。
さまざまなテクニックのメリットと欠点が強調されている。
私たちの知る限りでは、この2つの手法に焦点をあてたこれまでで最も詳細な研究であり、データサイエンス、信号処理、機械学習、人工知能全般の分野における理論的な理解と実践に関係します。
関連論文リスト
- Towards Trustworthy and Aligned Machine Learning: A Data-centric Survey
with Causality Perspectives [11.63431725146897]
機械学習の信頼性はこの分野において重要なトピックとして浮上している。
本調査は,一貫した概念集合を用いた信頼性の高い機械学習開発の背景を示す。
我々は,これらの手法を,堅牢性,敵対的堅牢性,解釈可能性,公正性にまたがる数学的語彙を持つ統一言語を提供する。
論文 参考訳(メタデータ) (2023-07-31T17:11:35Z) - Deep learning applied to computational mechanics: A comprehensive
review, state of the art, and the classics [77.34726150561087]
人工知能,特に深層学習(DL)の最近の進歩を概観する。
ハイブリッドおよび純粋機械学習(ML)の手法について論じる。
AIの歴史と限界は、特に古典の誤解や誤解を指摘し、議論され、議論される。
論文 参考訳(メタデータ) (2022-12-18T02:03:00Z) - Rethinking Bayesian Learning for Data Analysis: The Art of Prior and
Inference in Sparsity-Aware Modeling [20.296566563098057]
信号処理と機械学習のためのスパースモデリングは、20年以上にわたって科学研究の焦点となっている。
本稿では,3つの一般的なデータモデリングツールにスパーシティ・プロモーティング・プリエントを組み込むことの最近の進歩を概観する。
論文 参考訳(メタデータ) (2022-05-28T00:43:52Z) - Model-Based Deep Learning: On the Intersection of Deep Learning and
Optimization [101.32332941117271]
決定アルゴリズムは様々なアプリケーションで使われている。
数理モデルに頼らずにデータから調整された高度パラメトリックアーキテクチャを使用するディープラーニングアプローチが、ますます人気が高まっている。
モデルに基づく最適化とデータ中心のディープラーニングは、しばしば異なる規律とみなされる。
論文 参考訳(メタデータ) (2022-05-05T13:40:08Z) - Inducing Gaussian Process Networks [80.40892394020797]
本稿では,特徴空間と誘導点を同時に学習するシンプルなフレームワークであるGaussian Process Network (IGN)を提案する。
特に誘導点は特徴空間で直接学習され、複雑な構造化領域のシームレスな表現を可能にする。
実世界のデータセットに対する実験結果から,IGNは最先端の手法よりも大幅に進歩していることを示す。
論文 参考訳(メタデータ) (2022-04-21T05:27:09Z) - Learning Theory for Inferring Interaction Kernels in Second-Order
Interacting Agent Systems [17.623937769189364]
推定器の強い一貫性と最適非パラメトリック min-max 収束率を確立する完全学習理論を開発する。
推定器を構築するための数値アルゴリズムは並列化可能であり、高次元問題に対してよく機能し、複雑な力学系上で実証される。
論文 参考訳(メタデータ) (2020-10-08T02:07:53Z) - Learning Manifold Implicitly via Explicit Heat-Kernel Learning [63.354671267760516]
そこで,本研究では,熱カーネルを学習することで,多様体情報を暗黙的に取得する,暗黙的多様体学習の概念を提案する。
学習した熱カーネルは、データ生成のための深層生成モデル(DGM)やベイズ推論のためのスタイン変分勾配Descentなど、さまざまなカーネルベースの機械学習モデルに適用することができる。
論文 参考訳(メタデータ) (2020-10-05T03:39:58Z) - Mat\'ern Gaussian processes on Riemannian manifolds [81.15349473870816]
ガウス過程の広く用いられるマタン類を一般化する方法を示す。
また、Mat'ern から広く用いられる2乗指数過程への一般化も拡張する。
論文 参考訳(メタデータ) (2020-06-17T21:05:42Z) - Geometric Interpretation of Running Nystr\"{o}m-Based Kernel Machines
and Error Analysis [35.01395939823442]
我々は,Nystr "om-based kernel machine" を実行するための幾何学的解釈を用いた新しい手法を開発した。
他の2つのよく研究されたアプローチは、等価に我々の提案したアプローチに変換できることを示す。
論文 参考訳(メタデータ) (2020-02-20T18:36:16Z) - Gradient tracking and variance reduction for decentralized optimization
and machine learning [19.54092620537586]
有限サム問題の解法は、多くの信号処理や機械学習タスクにおいて重要である。
分散還元と勾配追跡を組み合わせ、堅牢な性能を実現するための統一的なアルゴリズムフレームワークを提供する。
論文 参考訳(メタデータ) (2020-02-13T07:17:07Z) - Distributed Learning in the Non-Convex World: From Batch to Streaming
Data, and Beyond [73.03743482037378]
分散学習は、多くの人々が想定する、大規模に接続された世界の重要な方向となっている。
本稿では、スケーラブルな分散処理とリアルタイムデータ計算の4つの重要な要素について論じる。
実践的な問題や今後の研究についても論じる。
論文 参考訳(メタデータ) (2020-01-14T14:11:32Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。