論文の概要: Tail-adaptive Bayesian shrinkage
- arxiv url: http://arxiv.org/abs/2007.02192v3
- Date: Mon, 25 Dec 2023 02:52:58 GMT
- ステータス: 処理完了
- システム内更新日: 2023-12-28 02:18:18.535147
- Title: Tail-adaptive Bayesian shrinkage
- Title(参考訳): テール適応ベイズ収縮
- Authors: Se Yoon Lee, Peng Zhao, Debdeep Pati, Bani K. Mallick
- Abstract要約: 多様な疎性体制下でのロバストスパース推定は、テール適応収縮特性に依存している。
本研究では,グローバル-ローカル-テール(GLT)ガウス混合分布を提案する。
本研究は, GLT 以前のテールルールが, 多様なスパシティ・レジームにおいて, ホースシューに基づく固定テールルールよりも有利であることを示す。
- 参考スコア(独自算出の注目度): 14.715145160848897
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Modern genomic studies are increasingly focused on discovering more and more
interesting genes associated with a health response. Traditional shrinkage
priors are primarily designed to detect a handful of signals from tens of
thousands of predictors in the so-called ultra-sparsity domain. However, they
may fail to identify signals when the degree of sparsity is moderate. Robust
sparse estimation under diverse sparsity regimes relies on a tail-adaptive
shrinkage property. In this property, the tail-heaviness of the prior adjusts
adaptively, becoming larger or smaller as the sparsity level increases or
decreases, respectively, to accommodate more or fewer signals. In this study,
we propose a global-local-tail (GLT) Gaussian mixture distribution that ensures
this property. We examine the role of the tail-index of the prior in relation
to the underlying sparsity level and demonstrate that the GLT posterior
contracts at the minimax optimal rate for sparse normal mean models. We apply
both the GLT prior and the Horseshoe prior to real data problems and simulation
examples. Our findings indicate that the varying tail rule based on the GLT
prior offers advantages over a fixed tail rule based on the Horseshoe prior in
diverse sparsity regimes.
- Abstract(参考訳): 現代のゲノム研究は、健康反応に関連するより興味深い遺伝子の発見にますます力を入れている。
従来の縮小前処理は、いわゆる超分離領域において、数万の予測器から少数の信号を検出するように設計されている。
しかし、間隔の度合いが適度である場合には、信号の識別に失敗する可能性がある。
多様な疎性体制下でのロバストスパース推定はテール適応収縮特性に依存する。
この特性において、前者のテール重みは適応的に調整され、空間レベルが増大または減少するにつれて大きくなり、より少ない信号に対応する。
本研究では,グローバル-ローカル-テール(GLT)ガウス混合分布を提案する。
本研究では,sparsityレベルとの関連において,前者のtail-indexの役割を検証し,sparse正規平均モデルのminimax最適速度でglt後端が収縮することを示す。
実データ問題やシミュレーションの例に先立って, GLT と Horseshoe をそれぞれ適用する。
以上の結果から,GLT先行法に基づく尾部規則は,多種多様性体制におけるHorseshoe法に基づく固定尾部規則よりも有利であることが示唆された。
関連論文リスト
- Curvature-Informed SGD via General Purpose Lie-Group Preconditioners [6.760212042305871]
曲率情報を利用して勾配降下(SGD)を加速する新しい手法を提案する。
提案手法は,行列フリープレコンディショナーと低ランクプレコンディショナーの2つのプレコンディショナーを含む。
プレコンディショニングされたSGD(PSGD)は、ビジョン、NLP、RLタスクにおいてSoTAよりも優れていることを示す。
論文 参考訳(メタデータ) (2024-02-07T03:18:00Z) - Distributionally Robust Optimization with Bias and Variance Reduction [9.341215359733601]
勾配に基づくアルゴリズムであるProspectは、スムーズな正規化損失に対する線形収束を享受していることを示す。
また、勾配法のようなベースラインよりも2~3$times$早く収束できることも示している。
論文 参考訳(メタデータ) (2023-10-21T00:03:54Z) - The Choice of Noninformative Priors for Thompson Sampling in
Multiparameter Bandit Models [56.31310344616837]
トンプソンサンプリング(TS)は、様々な報酬モデルにまたがる理論的な保証によって支持される卓越した経験的性能で知られている。
本研究では,理論的理解の欠如のある新しいモデルを扱う際に,非形式的事前選択がTSの性能に与える影響について考察する。
論文 参考訳(メタデータ) (2023-02-28T08:42:42Z) - Fat-Tailed Variational Inference with Anisotropic Tail Adaptive Flows [53.32246823168763]
脂肪尾密度は、一般に、ロバストモデルとスケール混合における後縁および辺縁分布として生じる。
我々はまず、尾が尾崩壊の速度にどのように影響するかを定量化することで、リプシッツフローの尾に関する以前の理論を改善した。
次に、テール異方性に敏感なテールパラメータの代替理論を開発する。
論文 参考訳(メタデータ) (2022-05-16T18:03:41Z) - Benign Underfitting of Stochastic Gradient Descent [72.38051710389732]
本研究では,適切な学習データを得ることで,一般化性能を実現する「従来型」学習ルールとして,勾配降下度(SGD)がどの程度理解されるかを検討する。
類似現象が起こらない近縁な交換SGDを解析し、その集団リスクが実際に最適な速度で収束することを証明する。
論文 参考訳(メタデータ) (2022-02-27T13:25:01Z) - A Dimensionality Reduction Method for Finding Least Favorable Priors
with a Focus on Bregman Divergence [108.28566246421742]
そこで本研究では,次元に明示的な有界な有限次元設定に最適化を移動させることができる次元削減法を開発した。
この問題を進展させるため、比較的大きな損失関数、すなわちブレグマンの発散によって引き起こされるベイズ的リスクに限定する。
論文 参考訳(メタデータ) (2022-02-23T16:22:28Z) - Benign Overfitting of Constant-Stepsize SGD for Linear Regression [122.70478935214128]
帰納バイアスは 経験的に過剰フィットを防げる中心的存在です
この研究は、この問題を最も基本的な設定として考慮している: 線形回帰に対する定数ステップサイズ SGD。
我々は、(正規化されていない)SGDで得られるアルゴリズム正則化と、通常の最小二乗よりも多くの顕著な違いを反映する。
論文 参考訳(メタデータ) (2021-03-23T17:15:53Z) - Direction Matters: On the Implicit Bias of Stochastic Gradient Descent
with Moderate Learning Rate [105.62979485062756]
本稿では,中等度学習におけるSGDの特定の正規化効果を特徴付けることを試みる。
SGDはデータ行列の大きな固有値方向に沿って収束し、GDは小さな固有値方向に沿って収束することを示す。
論文 参考訳(メタデータ) (2020-11-04T21:07:52Z) - Fundamental Limits of Ridge-Regularized Empirical Risk Minimization in
High Dimensions [41.7567932118769]
経験的リスク最小化アルゴリズムは、様々な推定や予測タスクで広く利用されている。
本稿では,コンベックスEMMの統計的精度に関する基礎的限界を推論のために初めて特徴づける。
論文 参考訳(メタデータ) (2020-06-16T04:27:38Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。