論文の概要: Convex Nonparanormal Regression
- arxiv url: http://arxiv.org/abs/2004.10255v2
- Date: Sun, 4 Apr 2021 05:46:26 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-11 06:28:46.206101
- Title: Convex Nonparanormal Regression
- Title(参考訳): 凸非正規回帰
- Authors: Yonatan Woodbridge, Gal Elidan and Ami Wiesel
- Abstract要約: 後部条件分布を推定する条件付き非正規回帰法であるConvex Nonparanormal Regression (CNR)を導入する。
ピースワイズ線形辞書の特殊だが強力な場合、後進平均の閉形式を提供する。
合成および実世界のデータを用いた古典的競合相手に対するCNRの利点を実証する。
- 参考スコア(独自算出の注目度): 8.497456090408084
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Quantifying uncertainty in predictions or, more generally, estimating the
posterior conditional distribution, is a core challenge in machine learning and
statistics. We introduce Convex Nonparanormal Regression (CNR), a conditional
nonparanormal approach for coping with this task. CNR involves a convex
optimization of a posterior defined via a rich dictionary of pre-defined non
linear transformations on Gaussians. It can fit an arbitrary conditional
distribution, including multimodal and non-symmetric posteriors. For the
special but powerful case of a piecewise linear dictionary, we provide a closed
form of the posterior mean which can be used for point-wise predictions.
Finally, we demonstrate the advantages of CNR over classical competitors using
synthetic and real world data.
- Abstract(参考訳): 予測の不確かさの定量化、あるいはより一般的には、後方条件分布の推定は、機械学習と統計学において重要な課題である。
この課題に対処するための条件付き非正規回帰法であるconvex nonparanormal regression (cnr)を導入する。
CNRは、ガウス上の既定義の非線型変換の豊富な辞書を通して定義される後続の凸最適化を含む。
任意の条件分布に適合でき、マルチモーダルと非対称の後端を含む。
分断線形辞書の特殊だが強力な場合については、後平均の閉じた形式を提供し、ポイントワイズ予測に使用できる。
最後に、合成および実世界のデータを用いた古典的競合相手に対するCNRの利点を示す。
関連論文リスト
- Improving Diffusion Models for Inverse Problems Using Optimal Posterior Covariance [52.093434664236014]
近年の拡散モデルは、特定の逆問題に対して再訓練することなく、ノイズの多い線形逆問題に対する有望なゼロショット解を提供する。
この発見に触発されて、我々は、最大推定値から決定されるより原理化された共分散を用いて、最近の手法を改善することを提案する。
論文 参考訳(メタデータ) (2024-02-03T13:35:39Z) - Calibrating Neural Simulation-Based Inference with Differentiable
Coverage Probability [50.44439018155837]
ニューラルモデルのトレーニング目的に直接キャリブレーション項を含めることを提案する。
古典的なキャリブレーション誤差の定式化を緩和することにより、エンドツーエンドのバックプロパゲーションを可能にする。
既存の計算パイプラインに直接適用でき、信頼性の高いブラックボックス後部推論が可能である。
論文 参考訳(メタデータ) (2023-10-20T10:20:45Z) - Instance-Dependent Generalization Bounds via Optimal Transport [51.71650746285469]
既存の一般化境界は、現代のニューラルネットワークの一般化を促進する重要な要因を説明することができない。
データ空間における学習予測関数の局所リプシッツ正則性に依存するインスタンス依存の一般化境界を導出する。
ニューラルネットワークに対する一般化境界を実験的に解析し、有界値が有意義であることを示し、トレーニング中の一般的な正規化方法の効果を捉える。
論文 参考訳(メタデータ) (2022-11-02T16:39:42Z) - On the Inconsistency of Kernel Ridgeless Regression in Fixed Dimensions [16.704246627541103]
翻訳不変なカーネルを持つカーネルマシンである予測器の重要なクラスが、固定次元における良さの過度なオーバーフィッティングを示さないことを示す。
この結果は、ガウス、ラプラス、コーシーなどの一般的な翻訳不変カーネルに適用できる。
論文 参考訳(メタデータ) (2022-05-26T17:43:20Z) - On the Double Descent of Random Features Models Trained with SGD [78.0918823643911]
勾配降下(SGD)により最適化された高次元におけるランダム特徴(RF)回帰特性について検討する。
本研究では, RF回帰の高精度な非漸近誤差境界を, 定常および適応的なステップサイズSGD設定の下で導出する。
理論的にも経験的にも二重降下現象を観察する。
論文 参考訳(メタデータ) (2021-10-13T17:47:39Z) - Benign Overfitting of Constant-Stepsize SGD for Linear Regression [122.70478935214128]
帰納バイアスは 経験的に過剰フィットを防げる中心的存在です
この研究は、この問題を最も基本的な設定として考慮している: 線形回帰に対する定数ステップサイズ SGD。
我々は、(正規化されていない)SGDで得られるアルゴリズム正則化と、通常の最小二乗よりも多くの顕著な違いを反映する。
論文 参考訳(メタデータ) (2021-03-23T17:15:53Z) - Distribution-Free Robust Linear Regression [5.532477732693]
共変体の分布を仮定せずにランダムな設計線形回帰を研究する。
最適部分指数尾を持つオーダー$d/n$の過大なリスクを達成する非線形推定器を構築する。
我々は、Gy"orfi, Kohler, Krzyzak, Walk が原因で、truncated least squares 推定器の古典的境界の最適版を証明した。
論文 参考訳(メタデータ) (2021-02-25T15:10:41Z) - Regression with reject option and application to kNN [0.0]
我々は、このフレームワークをrejectオプションによる回帰として、rejectオプションによる分類の拡張として参照する。
2つのデータセットを含む最適規則を半教師付きで推定する手法を提案する。
その結果、リジェクションオプションを持つ予測器は、リスクとリジェクションレートの両方の観点から、リジェクションオプションを持つ最適予測器とほぼ同等であることが示された。
論文 参考訳(メタデータ) (2020-06-30T08:20:57Z) - When Does Preconditioning Help or Hurt Generalization? [74.25170084614098]
本稿では,第1次および第2次手法のテキスト単純バイアスが一般化特性の比較にどのように影響するかを示す。
本稿では、バイアス分散トレードオフを管理するためのいくつかのアプローチと、GDとNGDを補間する可能性について論じる。
論文 参考訳(メタデータ) (2020-06-18T17:57:26Z) - The Reciprocal Bayesian LASSO [0.0]
我々は、線形回帰パラメータの rLASSO 推定をベイズ的後続モード推定として解釈できるという観測に基づいて、rLASSO 問題の完全なベイズ的定式化を考える。
シミュレーションおよび実データについて、ベイズ式は、推定、予測、変数選択において、その古典的な従兄弟よりも優れていることを示す。
論文 参考訳(メタデータ) (2020-01-23T01:21:59Z) - On Low-rank Trace Regression under General Sampling Distribution [9.699586426043885]
クロスバリデード推定器は一般仮定でほぼ最適誤差境界を満たすことを示す。
また, クロスバリデーション推定器はパラメータ選択理論に着想を得た手法よりも優れていることを示す。
論文 参考訳(メタデータ) (2019-04-18T02:56:00Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。