論文の概要: A Data-Adaptive Prior for Bayesian Learning of Kernels in Operators
- arxiv url: http://arxiv.org/abs/2212.14163v1
- Date: Thu, 29 Dec 2022 03:15:51 GMT
- ステータス: 処理完了
- システム内更新日: 2023-01-02 16:05:14.024608
- Title: A Data-Adaptive Prior for Bayesian Learning of Kernels in Operators
- Title(参考訳): 演算子におけるカーネルのベイズ学習のためのデータ適応前処理
- Authors: Neil K. Chada, Quanjun Lang, Fei Lu, Xiong Wang
- Abstract要約: 我々は、常に最小限の雑音を持つ安定な後部を実現するために、データ適応型を前もって導入する。
数値実験により、固定された先行は、4種類の誤りのいずれかが存在する場合、分岐した後部平均に繋がることが示された。
- 参考スコア(独自算出の注目度): 4.0868955102696365
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Kernels are efficient in representing nonlocal dependence and they are widely
used to design operators between function spaces. Thus, learning kernels in
operators from data is an inverse problem of general interest. Due to the
nonlocal dependence, the inverse problem can be severely ill-posed with a
data-dependent singular inversion operator. The Bayesian approach overcomes the
ill-posedness through a non-degenerate prior. However, a fixed non-degenerate
prior leads to a divergent posterior mean when the observation noise becomes
small, if the data induces a perturbation in the eigenspace of zero eigenvalues
of the inversion operator. We introduce a data-adaptive prior to achieve a
stable posterior whose mean always has a small noise limit. The data-adaptive
prior's covariance is the inversion operator with a hyper-parameter selected
adaptive to data by the L-curve method. Furthermore, we provide a detailed
analysis on the computational practice of the data-adaptive prior, and
demonstrate it on Toeplitz matrices and integral operators. Numerical tests
show that a fixed prior can lead to a divergent posterior mean in the presence
of any of the four types of errors: discretization error, model error, partial
observation and wrong noise assumption. In contrast, the data-adaptive prior
always attains posterior means with small noise limits.
- Abstract(参考訳): カーネルは非局所依存を表現するのに効率的であり、関数空間間の演算子を設計するために広く使われている。
したがって、データから演算子のカーネルを学習することは一般的な関心の逆問題である。
非局所的依存のため、逆問題はデータ依存特異逆演算子に深刻な悪影響を及ぼすことができる。
ベイズ的アプローチは、非退化前の不備を克服する。
しかし、固定された非退化前は、データが反転作用素のゼロ固有値の固有空間の摂動を誘導した場合、観測ノイズが小さくなると、分岐後平均となる。
平均値が常に小さな雑音限界を持つ安定な後流を達成するために,データ適応性を導入する。
データ適応型事前共分散は、L曲線法によりデータに適応的に選択されたハイパーパラメータを持つ逆演算子である。
さらに,データ適応型プリミティブの計算実践に関する詳細な解析を行い,toeplitz行列と積分演算子を用いてそれを実演する。
数値実験により、固定された事前値が、離散化誤差、モデル誤差、部分的観測、誤ったノイズ仮定の4つのタイプのいずれかの存在下で、異なる後方平均をもたらすことが示されている。
対照的に、データ適応プリエントは常に後部手段を小さなノイズ制限で達成する。
関連論文リスト
- Approximating Counterfactual Bounds while Fusing Observational, Biased
and Randomised Data Sources [64.96984404868411]
我々は、複数の、偏見のある、観察的、介入的な研究からのデータを統合するという問題に対処する。
利用可能なデータの可能性は局所的な最大値を持たないことを示す。
次に、同じアプローチが複数のデータセットの一般的なケースにどのように対処できるかを示す。
論文 参考訳(メタデータ) (2023-07-31T11:28:24Z) - Score-based Diffusion Models in Function Space [140.792362459734]
拡散モデルは、最近、生成モデリングの強力なフレームワークとして登場した。
本稿では,関数空間における拡散モデルをトレーニングするためのDDO(Denoising Diffusion Operators)という,数学的に厳密なフレームワークを提案する。
データ解像度に依存しない固定コストで、対応する離散化アルゴリズムが正確なサンプルを生成することを示す。
論文 参考訳(メタデータ) (2023-02-14T23:50:53Z) - Optimal Algorithms for the Inhomogeneous Spiked Wigner Model [89.1371983413931]
不均一な問題に対する近似メッセージパッシングアルゴリズム(AMP)を導出する。
特に,情報理論の閾値よりも大きい信号と雑音の比を必要とする既知のアルゴリズムが,ランダムよりも優れた処理を行うための統計的・計算的ギャップの存在を同定する。
論文 参考訳(メタデータ) (2023-02-13T19:57:17Z) - GibbsDDRM: A Partially Collapsed Gibbs Sampler for Solving Blind Inverse
Problems with Denoising Diffusion Restoration [64.8770356696056]
本稿では,DDRM(Denoising Diffusion Restoration Models)の拡張であるGibbsDDRMを提案する。
提案手法は問題に依存しないため,様々な逆問題に対して事前学習した拡散モデルを適用することができる。
論文 参考訳(メタデータ) (2023-01-30T06:27:48Z) - Subspace Recovery from Heterogeneous Data with Non-isotropic Noise [43.44371292901258]
この問題の基本的な定式化について研究する:主成分分析(PCA)
私たちの目標は、すべてのユーザからのデータポイントを使用して、$mu_i$で共有される線形部分空間を復元することです。
非球面およびユーザ依存雑音下で効率よく計算可能な推定器を設計する。
論文 参考訳(メタデータ) (2022-10-24T18:00:08Z) - On the Inconsistency of Kernel Ridgeless Regression in Fixed Dimensions [16.704246627541103]
翻訳不変なカーネルを持つカーネルマシンである予測器の重要なクラスが、固定次元における良さの過度なオーバーフィッティングを示さないことを示す。
この結果は、ガウス、ラプラス、コーシーなどの一般的な翻訳不変カーネルに適用できる。
論文 参考訳(メタデータ) (2022-05-26T17:43:20Z) - Data adaptive RKHS Tikhonov regularization for learning kernels in
operators [1.5039745292757671]
DARTR: 演算子における関数パラメータの非パラメトリック学習における線形逆問題に対するデータ適応型RKHS Tikhonov正規化法を提案する。
鍵となる要素は、システム固有のデータ適応(SIDA)RKHSであり、その標準は、識別可能性の関数空間で起こる学習を制限する。
論文 参考訳(メタデータ) (2022-03-08T01:08:35Z) - Convergence Rates for Learning Linear Operators from Noisy Data [6.4423565043274795]
本研究では,空間上の線形演算子を学習する逆問題について,ランダムな入力データに対する雑音の多い点評価から検討する。
ボヒナーノルムの族に対する後部収縮速度は、推定誤差よりも無限小の傾向にあるため確立する。
これらの収束速度は、有界あるいはコンパクトな作用素の学習と比較して線形作用素の学習の難しさを強調し、定量化する。
論文 参考訳(メタデータ) (2021-08-27T22:09:53Z) - Imputation-Free Learning from Incomplete Observations [73.15386629370111]
本稿では,不備な値を含む入力からの推論をインプットなしでトレーニングするIGSGD法の重要性について紹介する。
バックプロパゲーションによるモデルのトレーニングに使用する勾配の調整には強化学習(RL)を用いる。
我々の計算自由予測は、最先端の計算手法を用いて従来の2段階の計算自由予測よりも優れている。
論文 参考訳(メタデータ) (2021-07-05T12:44:39Z) - Benign Overfitting of Constant-Stepsize SGD for Linear Regression [122.70478935214128]
帰納バイアスは 経験的に過剰フィットを防げる中心的存在です
この研究は、この問題を最も基本的な設定として考慮している: 線形回帰に対する定数ステップサイズ SGD。
我々は、(正規化されていない)SGDで得られるアルゴリズム正則化と、通常の最小二乗よりも多くの顕著な違いを反映する。
論文 参考訳(メタデータ) (2021-03-23T17:15:53Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。