論文の概要: W-kernel and essential subspace for frequencist's evaluation of Bayesian
estimators
- arxiv url: http://arxiv.org/abs/2311.13017v1
- Date: Tue, 21 Nov 2023 21:46:04 GMT
- ステータス: 処理完了
- システム内更新日: 2023-11-23 16:58:12.340290
- Title: W-kernel and essential subspace for frequencist's evaluation of Bayesian
estimators
- Title(参考訳): フリークエンシストによるベイズ推定器の評価のためのWカーネルと必須部分空間
- Authors: Yukito Iba
- Abstract要約: 行列 W とその主空間に焦点をあて、後者を本質部分空間とする。
行列 W が再生カーネルとして解釈できることを示し、それを W-カーネルと呼ぶ。
フィッシャー核とニューラル・タンジェント核の関係が確立され、古典理論との関係が解明される。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The posterior covariance matrix W defined by the log-likelihood of each
observation plays important roles both in the sensitivity analysis and
frequencist's evaluation of the Bayesian estimators. This study focused on the
matrix W and its principal space; we term the latter as an essential subspace.
First, it is shown that they appear in various statistical settings, such as
the evaluation of the posterior sensitivity, assessment of the frequencist's
uncertainty from posterior samples, and stochastic expansion of the loss; a key
tool to treat frequencist's properties is the recently proposed Bayesian
infinitesimal jackknife approximation (Giordano and Broderick (2023)). In the
following part, we show that the matrix W can be interpreted as a reproducing
kernel; it is named as W-kernel. Using the W-kernel, the essential subspace is
expressed as a principal space given by the kernel PCA. A relation to the
Fisher kernel and neural tangent kernel is established, which elucidates the
connection to the classical asymptotic theory; it also leads to a sort of
Bayesian-frequencist's duality. Finally, two applications, selection of a
representative set of observations and dimensional reduction in the approximate
bootstrap, are discussed. In the former, incomplete Cholesky decomposition is
introduced as an efficient method to compute the essential subspace. In the
latter, different implementations of the approximate bootstrap for posterior
means are compared.
- Abstract(参考訳): 各観測の対数類似度で定義される後続共分散行列Wは、感度解析とフライクエンシストによるベイズ推定器の評価において重要な役割を果たす。
この研究は行列 W とその主空間に焦点をあて、後者を本質部分空間と呼ぶ。
まず, 後方感度の評価, 後方試料からのフレクエンシストの不確かさの評価, 損失の確率的拡大など, 様々な統計条件において現れることが示され, フレクシストの性質を扱う重要な道具として最近提案されているベイズ無限小ジャッキニフェ近似 (giordano and broderick (2023)) がある。
以下の部分では、行列 W が再生カーネルとして解釈できることを示し、それを W-カーネルと呼ぶ。
W-カーネルを用いて、必須部分空間はカーネルPCAによって与えられる主空間として表現される。
フィッシャー核と神経接核との関係が確立され、古典的漸近理論とのつながりが解明される。
最後に、近似ブートストラップにおける代表的観測セットの選択と次元還元の2つの応用について論じる。
前者では、必須部分空間を計算する効率的な方法として、不完全コレスキー分解を導入する。
後者では、後方手段に対する近似ブートストラップの異なる実装を比較する。
関連論文リスト
- KPZ scaling from the Krylov space [83.88591755871734]
近年,Cardar-Parisi-Zhangスケーリングをリアルタイムの相関器や自動相関器に示す超拡散が報告されている。
これらの結果から着想を得て,Krylov演算子に基づく相関関数のKPZスケーリングについて検討する。
論文 参考訳(メタデータ) (2024-06-04T20:57:59Z) - Concentration properties of fractional posterior in 1-bit matrix completion [0.0]
この研究は、しばしば1ビット行列完備化と呼ばれるバイナリ観測のシナリオに特に対処する。
一般の非一様サンプリング方式を考慮し、分数後方の有効性に関する理論的保証を提供することにより、このギャップに対処する。
我々の結果は、頻繁な文献に見られるものと同等であるが、制限的な仮定は少ない。
論文 参考訳(メタデータ) (2024-04-13T11:22:53Z) - On the Sublinear Regret of GP-UCB [58.25014663727544]
ガウス過程上信頼境界 (GP-UCB) アルゴリズムは, ほぼ最適の後悔率を有することを示す。
私たちの改善は、基盤となるカーネルの滑らかさに比例してカーネルリッジ推定を正規化するという、重要な技術的貢献に依存しています。
論文 参考訳(メタデータ) (2023-07-14T13:56:11Z) - Promises and Pitfalls of the Linearized Laplace in Bayesian Optimization [73.80101701431103]
線形化ラプラス近似(LLA)はベイズニューラルネットワークの構築に有効で効率的であることが示されている。
ベイズ最適化におけるLLAの有用性について検討し,その性能と柔軟性を強調した。
論文 参考訳(メタデータ) (2023-04-17T14:23:43Z) - Non-separable Covariance Kernels for Spatiotemporal Gaussian Processes
based on a Hybrid Spectral Method and the Harmonic Oscillator [0.0]
物理引数に基づいて共分散カーネルを生成するためのハイブリッドスペクトル手法を提案する。
3つの発振器系における共分散核(アンダーダッピング、臨界減衰、オーバーダッピング)の明示的な関係を導出し、それらの特性について検討する。
論文 参考訳(メタデータ) (2023-02-19T14:12:48Z) - Kernel Subspace and Feature Extraction [7.424262881242935]
特徴部分空間の観点から,機械学習におけるカーネル手法について検討する。
我々は、ヒルシュフェルト-ゲベライン-レーニの最大相関関数からカーネルを構築し、最大相関カーネルを作成し、その情報理論の最適性を示す。
論文 参考訳(メタデータ) (2023-01-04T02:46:11Z) - Learning "best" kernels from data in Gaussian process regression. With
application to aerodynamics [0.4588028371034406]
本稿では,ガウス過程の回帰/クリギングサロゲートモデリング手法におけるカーネルの選択/設計アルゴリズムを紹介する。
アルゴリズムの最初のクラスはカーネルフローであり、機械学習の分類の文脈で導入された。
アルゴリズムの第2のクラスはスペクトル核リッジ回帰と呼ばれ、近似される関数のノルムが最小となるような「最良の」カーネルを選択することを目的としている。
論文 参考訳(メタデータ) (2022-06-03T07:50:54Z) - On the Benefits of Large Learning Rates for Kernel Methods [110.03020563291788]
本稿では,カーネル手法のコンテキストにおいて,現象を正確に特徴付けることができることを示す。
分離可能なヒルベルト空間における2次対象の最小化を考慮し、早期停止の場合、学習速度の選択が得られた解のスペクトル分解に影響を及ぼすことを示す。
論文 参考訳(メタデータ) (2022-02-28T13:01:04Z) - Revisiting Memory Efficient Kernel Approximation: An Indefinite Learning
Perspective [0.8594140167290097]
マトリックス近似は、大規模機械学習アプローチにおいて重要な要素である。
我々はMEKAをシフト不変カーネルだけでなく、非定常カーネルにも適用できるように拡張する。
我々は、安定な正の半定値MEKA近似を開発するために、スペクトルシフトのランツォスに基づく推定を提案する。
論文 参考訳(メタデータ) (2021-12-18T10:01:34Z) - Optimal policy evaluation using kernel-based temporal difference methods [78.83926562536791]
カーネルヒルベルト空間を用いて、無限水平割引マルコフ報酬過程の値関数を推定する。
我々は、関連するカーネル演算子の固有値に明示的に依存した誤差の非漸近上界を導出する。
MRP のサブクラスに対する minimax の下位境界を証明する。
論文 参考訳(メタデータ) (2021-09-24T14:48:20Z) - Kernel Mean Estimation by Marginalized Corrupted Distributions [96.9272743070371]
カーネル平均をヒルベルト空間で推定することは、多くのカーネル学習アルゴリズムにおいて重要な要素である。
本稿では,カーネル平均推定器としてカーネル平均推定器を提案する。
論文 参考訳(メタデータ) (2021-07-10T15:11:28Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。