論文の概要: Wiener Chaos in Kernel Regression: Towards Untangling Aleatoric and
Epistemic Uncertainty
- arxiv url: http://arxiv.org/abs/2312.07387v1
- Date: Tue, 12 Dec 2023 16:02:35 GMT
- ステータス: 処理完了
- システム内更新日: 2023-12-13 15:26:59.294895
- Title: Wiener Chaos in Kernel Regression: Towards Untangling Aleatoric and
Epistemic Uncertainty
- Title(参考訳): カーネル回帰におけるウィナーカオス : 失語症とてんかんの不確かさの解消に向けて
- Authors: T. Faulwasser, O. Molodchyk
- Abstract要約: 非ガウス計測雑音によるカーネルリッジの回帰について検討する。
数値的な例としてシステムを考えると、我々の手法はヒルベルトとアレタリックの不確実性の影響を解き放つことができる。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Gaussian Processes (GPs) are a versatile method that enables different
approaches towards learning for dynamics and control. Gaussianity assumptions
appear in two dimensions in GPs: The positive semi-definite kernel of the
underlying reproducing kernel Hilbert space is used to construct the
co-variance of a Gaussian distribution over functions, while measurement noise
(i.e. data corruption) is usually modeled as i.i.d. additive Gaussian. In this
note, we relax the latter Gaussianity assumption, i.e., we consider kernel
ridge regression with additive i.i.d. non-Gaussian measurement noise. To apply
the usual kernel trick, we rely on the representation of the uncertainty via
polynomial chaos expansions, which are series expansions for random variables
of finite variance introduced by Norbert Wiener. We derive and discuss the
analytic $\mathcal{L}^2$ solution to the arising Wiener kernel regression.
Considering a polynomial system as numerical example, we show that our approach
allows to untangle the effects of epistemic and aleatoric uncertainties.
- Abstract(参考訳): ガウス過程(英: Gaussian Processes, GP)は、動的および制御の学習への様々なアプローチを可能にする汎用的な手法である。
基礎となる再生核ヒルベルト空間の正の半定値核は、関数上のガウス分布の共分散を構成するのに使われ、測定ノイズ(すなわちデータ破損)は通常、i.i.d.加法ガウス空間としてモデル化される。
本稿では,後者のガウス性仮定を緩和する。すなわち,非ガウス性測定ノイズを付加した核リッジ回帰を考える。
通常のカーネルトリックを適用するために、ノルベルト・ウィーナーが導入した有限分散の確率変数の列展開である多項式カオス展開による不確実性の表現に依存する。
我々は解析的$\mathcal{l}^2$解をウィナー核回帰(英語版)から導出し、議論する。
数値的な例として多項式系を考えると,本手法はてんかんおよび失語症の影響を解き放つことができる。
関連論文リスト
- Overfitting Behaviour of Gaussian Kernel Ridgeless Regression: Varying Bandwidth or Dimensionality [33.900009202637285]
カーネルリッジレス回帰の最小ノルム補間解のオーバーフィッティング挙動を考察する。
固定次元の場合、帯域幅が変化したり調整されたりしても、リッジレス解は整合性がなく、少なくとも十分なノイズがあれば、常にヌル予測器よりも悪いことが示される。
論文 参考訳(メタデータ) (2024-09-05T19:58:58Z) - von Mises Quasi-Processes for Bayesian Circular Regression [57.88921637944379]
円値ランダム関数上の表現的および解釈可能な分布の族を探索する。
結果の確率モデルは、統計物理学における連続スピンモデルと関係を持つ。
後続推論のために、高速マルコフ連鎖モンテカルロサンプリングに寄与するストラトノビッチのような拡張を導入する。
論文 参考訳(メタデータ) (2024-06-19T01:57:21Z) - High-Dimensional Kernel Methods under Covariate Shift: Data-Dependent Implicit Regularization [83.06112052443233]
本稿では,共変量シフト下での高次元におけるカーネルリッジの回帰について検討する。
バイアス分散分解により、再重み付け戦略が分散を減少させることができることを理論的に証明する。
偏見について,任意の偏見の正則化を解析し,偏見が正則化の異なる尺度で非常に異なる振る舞いをすることができることを示す。
論文 参考訳(メタデータ) (2024-06-05T12:03:27Z) - Learning Mixtures of Gaussians Using Diffusion Models [9.118706387430883]
テレビエラーに対して$k$ Gaussiansの混合を学習するための新しいアルゴリズムを提案する。
我々のアプローチは解析的であり、拡散モデルの枠組みに依存している。
論文 参考訳(メタデータ) (2024-04-29T17:00:20Z) - Generalization in Kernel Regression Under Realistic Assumptions [41.345620270267446]
共通カーネルや任意の正規化、ノイズ、任意の入力次元、サンプル数に対して厳密な境界を提供する。
以上の結果から,高入力次元における過剰適合,固定次元におけるほぼ誘電過剰適合,正規化回帰に対する明示的な収束率が示唆された。
副産物として、カーネルシステムで訓練されたニューラルネットワークの時間依存境界を得る。
論文 参考訳(メタデータ) (2023-12-26T10:55:20Z) - Score-based Diffusion Models in Function Space [140.792362459734]
拡散モデルは、最近、生成モデリングの強力なフレームワークとして登場した。
本稿では,関数空間における拡散モデルをトレーニングするためのDDO(Denoising Diffusion Operators)という,数学的に厳密なフレームワークを提案する。
データ解像度に依存しない固定コストで、対応する離散化アルゴリズムが正確なサンプルを生成することを示す。
論文 参考訳(メタデータ) (2023-02-14T23:50:53Z) - Page curves and typical entanglement in linear optics [0.0]
ランダムな線形光ユニタリにより進化した一組の圧縮モード内での絡み合いについて検討する。
我々はR'enyi-2エントロピーで測定されたエンタングルメントの典型性について様々な結果を示す。
我々の主目的は、平均とエントロピーの分散によって従う対称性特性を利用して、ユニタリ平均化を劇的に単純化する。
論文 参考訳(メタデータ) (2022-09-14T18:00:03Z) - Non-Gaussian Gaussian Processes for Few-Shot Regression [71.33730039795921]
乱変数ベクトルの各成分上で動作し,パラメータを全て共有する可逆なODEベースのマッピングを提案する。
NGGPは、様々なベンチマークとアプリケーションに対する競合する最先端のアプローチよりも優れています。
論文 参考訳(メタデータ) (2021-10-26T10:45:25Z) - Scalable Variational Gaussian Processes via Harmonic Kernel
Decomposition [54.07797071198249]
汎用性を維持しつつ高い忠実度近似を提供する,スケーラブルな変分ガウス過程近似を導入する。
様々な回帰問題や分類問題において,本手法は変換やリフレクションなどの入力空間対称性を活用できることを実証する。
提案手法は, 純粋なGPモデルのうち, CIFAR-10 の最先端化を実現する。
論文 参考訳(メタデータ) (2021-06-10T18:17:57Z) - SLEIPNIR: Deterministic and Provably Accurate Feature Expansion for
Gaussian Process Regression with Derivatives [86.01677297601624]
本稿では,2次フーリエ特徴に基づく導関数によるGP回帰のスケーリング手法を提案する。
我々は、近似されたカーネルと近似された後部の両方に適用される決定論的、非漸近的、指数関数的に高速な崩壊誤差境界を証明した。
論文 参考訳(メタデータ) (2020-03-05T14:33:20Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。