論文の概要: The Reciprocal Bayesian LASSO
- arxiv url: http://arxiv.org/abs/2001.08327v4
- Date: Thu, 16 Sep 2021 16:11:40 GMT
- ステータス: 処理完了
- システム内更新日: 2023-01-07 13:22:12.728504
- Title: The Reciprocal Bayesian LASSO
- Title(参考訳): 逆ベイズ式LASSO
- Authors: Himel Mallick, Rahim Alhamzawi, Erina Paul, Vladimir Svetnik
- Abstract要約: 我々は、線形回帰パラメータの rLASSO 推定をベイズ的後続モード推定として解釈できるという観測に基づいて、rLASSO 問題の完全なベイズ的定式化を考える。
シミュレーションおよび実データについて、ベイズ式は、推定、予測、変数選択において、その古典的な従兄弟よりも優れていることを示す。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: A reciprocal LASSO (rLASSO) regularization employs a decreasing penalty
function as opposed to conventional penalization approaches that use increasing
penalties on the coefficients, leading to stronger parsimony and superior model
selection relative to traditional shrinkage methods. Here we consider a fully
Bayesian formulation of the rLASSO problem, which is based on the observation
that the rLASSO estimate for linear regression parameters can be interpreted as
a Bayesian posterior mode estimate when the regression parameters are assigned
independent inverse Laplace priors. Bayesian inference from this posterior is
possible using an expanded hierarchy motivated by a scale mixture of double
Pareto or truncated normal distributions. On simulated and real datasets, we
show that the Bayesian formulation outperforms its classical cousin in
estimation, prediction, and variable selection across a wide range of scenarios
while offering the advantage of posterior inference. Finally, we discuss other
variants of this new approach and provide a unified framework for variable
selection using flexible reciprocal penalties. All methods described in this
paper are publicly available as an R package at:
https://github.com/himelmallick/BayesRecipe.
- Abstract(参考訳): 逆のLASSO(rLASSO)正則化は、従来のペナルティの増大を利用する従来のペナルティ法とは対照的に、ペナルティ関数を減少させ、従来の縮小法と比較してより強いパシモニーと優れたモデル選択をもたらす。
ここでは、線形回帰パラメータに対するラッソ推定を、回帰パラメータが独立な逆ラプラス前駆体に割り当てられた場合にベイズ後モード推定として解釈できるという観測に基づいて、ラッソ問題の完全ベイズ的定式化を考える。
この後方からのベイズ推定は、二重パレートまたは切断正規分布のスケール混合によって動機付けられた拡張階層を用いて可能である。
シミュレーションおよび実データセットでは、ベイズ公式は、様々なシナリオで予測、予測、変数選択において古典的な従兄弟よりも優れており、後進推論の利点を提供する。
最後に,この新しいアプローチの他の変種について論じ,フレキシブルな相互ペナルティを用いた変数選択のための統一フレームワークを提供する。
この論文で記述されたすべてのメソッドは、以下のRパッケージとして公開されている。
関連論文リスト
- Multivariate root-n-consistent smoothing parameter free matching estimators and estimators of inverse density weighted expectations [51.000851088730684]
我々は、パラメトリックな$sqrt n $-rateで収束する、最も近い隣人の新しい修正とマッチング推定器を開発する。
我々は,非パラメトリック関数推定器は含まないこと,特に標本サイズ依存パラメータの平滑化には依存していないことを強調する。
論文 参考訳(メタデータ) (2024-07-11T13:28:34Z) - Generalized Laplace Approximation [23.185126261153236]
我々は、ベイズ的不整合を不特定性をモデル化し、不適切な先行をモデル化するために、統一された理論的枠組みを導入する。
正規化損失関数のヘッセン行列に対する簡単な調整を含む一般化ラプラス近似を提案する。
我々は、最先端のニューラルネットワークと実世界のデータセット上での一般化されたLaplace近似の性能と特性を評価する。
論文 参考訳(メタデータ) (2024-05-22T11:11:42Z) - Improving Diffusion Models for Inverse Problems Using Optimal Posterior Covariance [52.093434664236014]
近年の拡散モデルは、特定の逆問題に対して再訓練することなく、ノイズの多い線形逆問題に対する有望なゼロショット解を提供する。
この発見に触発されて、我々は、最大推定値から決定されるより原理化された共分散を用いて、最近の手法を改善することを提案する。
論文 参考訳(メタデータ) (2024-02-03T13:35:39Z) - Variational Prediction [95.00085314353436]
本稿では,変動境界を用いた後部予測分布に対する変動近似の学習手法を提案する。
このアプローチは、テスト時間の限界化コストを伴わずに、優れた予測分布を提供することができる。
論文 参考訳(メタデータ) (2023-07-14T18:19:31Z) - Variational Laplace Autoencoders [53.08170674326728]
変分オートエンコーダは、遅延変数の後部を近似するために、償却推論モデルを用いる。
完全分解ガウス仮定の限定的後部表現性に対処する新しい手法を提案する。
また、深部生成モデルのトレーニングのための変分ラプラスオートエンコーダ(VLAE)という一般的なフレームワークも提示する。
論文 参考訳(メタデータ) (2022-11-30T18:59:27Z) - A flexible empirical Bayes approach to multiple linear regression and connections with penalized regression [8.663322701649454]
大規模多重回帰に対する新しい経験的ベイズ手法を提案する。
当社のアプローチでは、フレキシブルな"適応縮小"と変分近似の2つの主要なアイデアが組み合わさっている。
提案手法では, 後進平均値がペナル化回帰問題を解く。
論文 参考訳(メタデータ) (2022-08-23T12:42:57Z) - Variational Refinement for Importance Sampling Using the Forward
Kullback-Leibler Divergence [77.06203118175335]
変分推論(VI)はベイズ推論における正確なサンプリングの代替として人気がある。
重要度サンプリング(IS)は、ベイズ近似推論手順の推定を微調整し、偏りを逸脱するためにしばしば用いられる。
近似ベイズ推論のための最適化手法とサンプリング手法の新たな組み合わせを提案する。
論文 参考訳(メタデータ) (2021-06-30T11:00:24Z) - Ridge Regression Revisited: Debiasing, Thresholding and Bootstrap [4.142720557665472]
リッジレグレッションは、デバイアスとしきい値の設定の後、Lassoに対していくつかの利点をもたらすので、見直す価値があるかもしれない。
本稿では,デバイアス付き及びしきい値付きリッジ回帰法を定義し,一貫性とガウス近似の定理を証明した。
推定に加えて予測の問題も考慮し,予測間隔に合わせた新しいハイブリッドブートストラップアルゴリズムを提案する。
論文 参考訳(メタデータ) (2020-09-17T05:04:10Z) - Slice Sampling for General Completely Random Measures [74.24975039689893]
本稿では, 後続推定のためのマルコフ連鎖モンテカルロアルゴリズムについて, 補助スライス変数を用いてトランケーションレベルを適応的に設定する。
提案アルゴリズムの有効性は、いくつかの一般的な非パラメトリックモデルで評価される。
論文 参考訳(メタデータ) (2020-06-24T17:53:53Z) - A Batch Normalized Inference Network Keeps the KL Vanishing Away [35.40781000297285]
変分オートエンコーダ(VAE)はモデルの後続変数を近似するために広く用いられている。
VAEはしばしば「後崩壊」と呼ばれる退化した局所最適値に収束する
論文 参考訳(メタデータ) (2020-04-27T05:20:01Z) - An Equivalence between Bayesian Priors and Penalties in Variational
Inference [8.45602005745865]
機械学習では、パラメータのいくつかの値をペナライズするアドホック正規化項によって変調される確率モデルのパラメータを最適化することが一般的である。
我々は、この手順に従って発生する正則化器を完全に特徴付け、与えられたペナルティに対応する事前を計算する体系的な方法を提供する。
論文 参考訳(メタデータ) (2020-02-01T09:48:51Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。