論文の概要: W-kernel and essential subspace for frequentist evaluation of Bayesian estimators
- arxiv url: http://arxiv.org/abs/2311.13017v4
- Date: Fri, 7 Jun 2024 08:21:44 GMT
- ステータス: 処理完了
- システム内更新日: 2024-06-10 20:36:48.861423
- Title: W-kernel and essential subspace for frequentist evaluation of Bayesian estimators
- Title(参考訳): ベイズ推定器の頻繁性評価のためのWカーネルと必須部分空間
- Authors: Yukito Iba,
- Abstract要約: この研究は行列 W とその主空間に焦点をあて、後者を必須部分空間と呼ぶ。
基本部分空間への射影は、感度解析と頻繁な評価において次元的還元を実現する。
フィッシャー核とニューラル・タンジェント核の関係が確立され、古典理論との関係が解明される。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The posterior covariance matrix W defined by the log-likelihood of each observation plays important roles both in the sensitivity analysis and frequentist evaluation of the Bayesian estimators. This study is focused on the matrix W and its principal space; we term the latter as an essential subspace. Projections to the essential subspace realize dimensional reduction in the sensitivity analysis and frequentist evaluation. A key tool for treating frequentist properties is the recently proposed Bayesian infinitesimal jackknife approximation(Giordano and Broderick (2023)). The matrix W can be interpreted as a reproducing kernel and is denoted as W-kernel. Using W-kernel, the essential subspace is expressed as a principal space given by the kernel principal component analysis. A relation to the Fisher kernel and neural tangent kernel is established, which elucidates the connection to the classical asymptotic theory. We also discuss a type of Bayesian-frequentist duality, naturally appeared from the kernel framework. Two applications are discussed: the selection of a representative set of observations and dimensional reduction in the approximate bootstrap. In the former, incomplete Cholesky decomposition is introduced as an efficient method for computing the essential subspace. In the latter, different implementations of the approximate bootstrap for posterior means are compared.
- Abstract(参考訳): 各観測の対数類似度で定義される後続共分散行列Wは、感度解析とベイズ推定器の頻繁な評価において重要な役割を果たす。
この研究は行列 W とその主空間に焦点をあて、後者を必須部分空間と呼ぶ。
基本部分空間への投影は、感度解析と頻繁な評価の次元的低減を実現する。
頻繁な性質を扱うための重要なツールは、最近提案されたベイズ無限小ジャックニフ近似(Giordano and Broderick (2023))である。
マトリックスWは再生カーネルと解釈でき、Wカーネルと表記される。
W-カーネルを用いて、必須部分空間はカーネルの主成分分析によって与えられる主空間として表現される。
フィッシャー・カーネルとニューラル・タンジェント・カーネルの関係が確立され、古典的漸近理論との関係が解明される。
また、カーネルフレームワークから自然に現れるベイズ頻度主義的双対性についても論じる。
2つの応用が議論されている: 近似ブートストラップにおける観測の代表的な集合の選択と次元還元である。
前者では、必須部分空間を計算するための効率的な方法として、不完全コレスキー分解を導入している。
後者では、後部手段に対する近似ブートストラップの異なる実装を比較する。
関連論文リスト
- KPZ scaling from the Krylov space [83.88591755871734]
近年,Cardar-Parisi-Zhangスケーリングをリアルタイムの相関器や自動相関器に示す超拡散が報告されている。
これらの結果から着想を得て,Krylov演算子に基づく相関関数のKPZスケーリングについて検討する。
論文 参考訳(メタデータ) (2024-06-04T20:57:59Z) - Concentration properties of fractional posterior in 1-bit matrix completion [0.0]
この研究は、しばしば1ビット行列完備化と呼ばれるバイナリ観測のシナリオに特に対処する。
一般の非一様サンプリング方式を考慮し、分数後方の有効性に関する理論的保証を提供することにより、このギャップに対処する。
我々の結果は、頻繁な文献に見られるものと同等であるが、制限的な仮定は少ない。
論文 参考訳(メタデータ) (2024-04-13T11:22:53Z) - On the Sublinear Regret of GP-UCB [58.25014663727544]
ガウス過程上信頼境界 (GP-UCB) アルゴリズムは, ほぼ最適の後悔率を有することを示す。
私たちの改善は、基盤となるカーネルの滑らかさに比例してカーネルリッジ推定を正規化するという、重要な技術的貢献に依存しています。
論文 参考訳(メタデータ) (2023-07-14T13:56:11Z) - Promises and Pitfalls of the Linearized Laplace in Bayesian Optimization [73.80101701431103]
線形化ラプラス近似(LLA)はベイズニューラルネットワークの構築に有効で効率的であることが示されている。
ベイズ最適化におけるLLAの有用性について検討し,その性能と柔軟性を強調した。
論文 参考訳(メタデータ) (2023-04-17T14:23:43Z) - Non-separable Covariance Kernels for Spatiotemporal Gaussian Processes
based on a Hybrid Spectral Method and the Harmonic Oscillator [0.0]
物理引数に基づいて共分散カーネルを生成するためのハイブリッドスペクトル手法を提案する。
3つの発振器系における共分散核(アンダーダッピング、臨界減衰、オーバーダッピング)の明示的な関係を導出し、それらの特性について検討する。
論文 参考訳(メタデータ) (2023-02-19T14:12:48Z) - Kernel Subspace and Feature Extraction [7.424262881242935]
特徴部分空間の観点から,機械学習におけるカーネル手法について検討する。
我々は、ヒルシュフェルト-ゲベライン-レーニの最大相関関数からカーネルを構築し、最大相関カーネルを作成し、その情報理論の最適性を示す。
論文 参考訳(メタデータ) (2023-01-04T02:46:11Z) - Learning "best" kernels from data in Gaussian process regression. With
application to aerodynamics [0.4588028371034406]
本稿では,ガウス過程の回帰/クリギングサロゲートモデリング手法におけるカーネルの選択/設計アルゴリズムを紹介する。
アルゴリズムの最初のクラスはカーネルフローであり、機械学習の分類の文脈で導入された。
アルゴリズムの第2のクラスはスペクトル核リッジ回帰と呼ばれ、近似される関数のノルムが最小となるような「最良の」カーネルを選択することを目的としている。
論文 参考訳(メタデータ) (2022-06-03T07:50:54Z) - On the Benefits of Large Learning Rates for Kernel Methods [110.03020563291788]
本稿では,カーネル手法のコンテキストにおいて,現象を正確に特徴付けることができることを示す。
分離可能なヒルベルト空間における2次対象の最小化を考慮し、早期停止の場合、学習速度の選択が得られた解のスペクトル分解に影響を及ぼすことを示す。
論文 参考訳(メタデータ) (2022-02-28T13:01:04Z) - Revisiting Memory Efficient Kernel Approximation: An Indefinite Learning
Perspective [0.8594140167290097]
マトリックス近似は、大規模機械学習アプローチにおいて重要な要素である。
我々はMEKAをシフト不変カーネルだけでなく、非定常カーネルにも適用できるように拡張する。
我々は、安定な正の半定値MEKA近似を開発するために、スペクトルシフトのランツォスに基づく推定を提案する。
論文 参考訳(メタデータ) (2021-12-18T10:01:34Z) - Optimal policy evaluation using kernel-based temporal difference methods [78.83926562536791]
カーネルヒルベルト空間を用いて、無限水平割引マルコフ報酬過程の値関数を推定する。
我々は、関連するカーネル演算子の固有値に明示的に依存した誤差の非漸近上界を導出する。
MRP のサブクラスに対する minimax の下位境界を証明する。
論文 参考訳(メタデータ) (2021-09-24T14:48:20Z) - Kernel Mean Estimation by Marginalized Corrupted Distributions [96.9272743070371]
カーネル平均をヒルベルト空間で推定することは、多くのカーネル学習アルゴリズムにおいて重要な要素である。
本稿では,カーネル平均推定器としてカーネル平均推定器を提案する。
論文 参考訳(メタデータ) (2021-07-10T15:11:28Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。