論文の概要: Posterior Consistency for Bayesian Relevance Vector Machines
- arxiv url: http://arxiv.org/abs/2202.05422v1
- Date: Fri, 11 Feb 2022 03:14:31 GMT
- ステータス: 処理完了
- システム内更新日: 2022-02-15 05:53:20.478647
- Title: Posterior Consistency for Bayesian Relevance Vector Machines
- Title(参考訳): ベイズ関連ベクトルマシンの後方整合性
- Authors: Xiao Fang and Malay Ghosh
- Abstract要約: Chakraborty et al. (2012) は、再現カーネルヒルベルト空間(RKHS)に基づく関連ベクトルマシンを用いて、そのような状況下での非線形回帰の完全な階層的ベイズ解析を行った。
本稿では,問題を再考し,グローバルな先進国と異なる新たなクラスを導入し,後続の一貫性と後続の収縮率について述べる。
- 参考スコア(独自算出の注目度): 0.342658286826597
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Statistical modeling and inference problems with sample sizes substantially
smaller than the number of available covariates are challenging. Chakraborty et
al. (2012) did a full hierarchical Bayesian analysis of nonlinear regression in
such situations using relevance vector machines based on reproducing kernel
Hilbert space (RKHS). But they did not provide any theoretical properties
associated with their procedure. The present paper revisits their problem,
introduces a new class of global-local priors different from theirs, and
provides results on posterior consistency as well as posterior contraction
rates
- Abstract(参考訳): サンプルサイズが利用可能な共変量よりもかなり小さい統計的モデリングと推論問題は困難である。
chakraborty et al. (2012) は、カーネルヒルベルト空間 (rkhs) を再現した相関ベクトルマシンを用いて、非線形回帰の階層的ベイズ解析を行った。
しかし、それらの手順に関連する理論的特性は提供されなかった。
本稿は,問題を再考し,グローバルな先進国と異なる新たなクラスを導入し,後続の一貫性と後続の収縮率に関する結果を提供する。
関連論文リスト
- Risk and cross validation in ridge regression with correlated samples [72.59731158970894]
我々は,データポイントが任意の相関関係を持つ場合,リッジ回帰のイン・オブ・サンプルリスクのトレーニング例を提供する。
さらに、テストポイントがトレーニングセットと非自明な相関を持ち、時系列予測で頻繁に発生するような場合まで分析を拡張します。
我々は多種多様な高次元データにまたがって理論を検証する。
論文 参考訳(メタデータ) (2024-08-08T17:27:29Z) - Conformal inference for regression on Riemannian Manifolds [49.7719149179179]
回帰シナリオの予測セットは、応答変数が$Y$で、多様体に存在し、Xで表される共変数がユークリッド空間にあるときに検討する。
我々は、多様体上のこれらの領域の経験的バージョンが、その集団に対するほぼ確実に収束していることを証明する。
論文 参考訳(メタデータ) (2023-10-12T10:56:25Z) - Local Risk Bounds for Statistical Aggregation [5.940699390639279]
我々は、Lung と Barron による指数重み推定器の古典的境界の局所化バージョンと Q-集約推定器の偏差最適境界を証明した。
これらの境界は、固定設計回帰のための Dai, Rigollet と Zhang の結果とランダム設計回帰のための Lecu'e と Rigollet の結果よりも改善されている。
論文 参考訳(メタデータ) (2023-06-29T17:51:42Z) - Learning Linear Causal Representations from Interventions under General
Nonlinear Mixing [52.66151568785088]
介入対象にアクセスできることなく、未知の単一ノード介入を考慮し、強い識別可能性を示す。
これは、ディープニューラルネットワークの埋め込みに対する非ペアの介入による因果識別性の最初の例である。
論文 参考訳(メタデータ) (2023-06-04T02:32:12Z) - Instance-Dependent Generalization Bounds via Optimal Transport [51.71650746285469]
既存の一般化境界は、現代のニューラルネットワークの一般化を促進する重要な要因を説明することができない。
データ空間における学習予測関数の局所リプシッツ正則性に依存するインスタンス依存の一般化境界を導出する。
ニューラルネットワークに対する一般化境界を実験的に解析し、有界値が有意義であることを示し、トレーニング中の一般的な正規化方法の効果を捉える。
論文 参考訳(メタデータ) (2022-11-02T16:39:42Z) - Harmless interpolation in regression and classification with structured
features [21.064512161584872]
過度にパラメータ化されたニューラルネットワークは、ノイズの多いトレーニングデータに完全に適合するが、テストデータではうまく一般化する。
再生カーネルヒルベルト空間における上界回帰と分類リスクの一般かつ柔軟な枠組みを提案する。
論文 参考訳(メタデータ) (2021-11-09T15:12:26Z) - On the Double Descent of Random Features Models Trained with SGD [78.0918823643911]
勾配降下(SGD)により最適化された高次元におけるランダム特徴(RF)回帰特性について検討する。
本研究では, RF回帰の高精度な非漸近誤差境界を, 定常および適応的なステップサイズSGD設定の下で導出する。
理論的にも経験的にも二重降下現象を観察する。
論文 参考訳(メタデータ) (2021-10-13T17:47:39Z) - Wasserstein-Splitting Gaussian Process Regression for Heterogeneous
Online Bayesian Inference [9.7471390457395]
我々は,オンライン予測伝搬ステップと連動して動作するGPの変動自由エネルギー近似を用いる。
後続分布が大きく変化するたびに新しいGPをインスタンス化する局所分割ステップを導入する。
時間の経過とともに、これは徐々に更新されるかもしれないスパースGPのアンサンブルをもたらす。
論文 参考訳(メタデータ) (2021-07-26T17:52:46Z) - Binary Classification of Gaussian Mixtures: Abundance of Support
Vectors, Benign Overfitting and Regularization [39.35822033674126]
生成ガウス混合モデルに基づく二項線形分類について検討する。
後者の分類誤差に関する新しい非漸近境界を導出する。
この結果は, 確率が一定である雑音モデルに拡張される。
論文 参考訳(メタデータ) (2020-11-18T07:59:55Z) - Statistical Foundation of Variational Bayes Neural Networks [0.456877715768796]
変分ベイズ(VB)は、真の後部からのサンプルの生成に伴う計算コストと時間の複雑さを回避するための有用な代替手段を提供する。
本稿では, フィードフォワード人工ニューラルネットワークモデルにおける平均場変動後部(VP)の後方整合性の基本的結果について述べる。
論文 参考訳(メタデータ) (2020-06-29T03:04:18Z) - Multiplicative noise and heavy tails in stochastic optimization [62.993432503309485]
経験的最適化は現代の機械学習の中心であるが、その成功における役割はまだ不明である。
分散による離散乗法雑音のパラメータによく現れることを示す。
最新のステップサイズやデータを含む重要な要素について、詳細な分析を行い、いずれも最先端のニューラルネットワークモデルで同様の結果を示す。
論文 参考訳(メタデータ) (2020-06-11T09:58:01Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。