論文の概要: The Illusion of the Illusion of Sparsity: An exercise in prior
sensitivity
- arxiv url: http://arxiv.org/abs/2009.14296v1
- Date: Tue, 29 Sep 2020 20:39:13 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-13 07:14:03.437415
- Title: The Illusion of the Illusion of Sparsity: An exercise in prior
sensitivity
- Title(参考訳): スパーシティの錯覚の錯覚:事前感受性の運動
- Authors: Bruno Fava and Hedibert F. Lopes
- Abstract要約: ビッグデータは、多くの説明変数が存在する場合に、どのように経済関係をモデル化するかという問題を提起する。
ベイズ的手法で高密度モデルやスパースモデルを用いることで、可変選択や縮退が可能となる。
このパターンは回帰係数の事前分布に敏感であり, モデルが間接的に変数選択と縮小を誘導することを示す。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The emergence of Big Data raises the question of how to model economic
relations when there is a large number of possible explanatory variables. We
revisit the issue by comparing the possibility of using dense or sparse models
in a Bayesian approach, allowing for variable selection and shrinkage. More
specifically, we discuss the results reached by Giannone, Lenza, and Primiceri
(2020) through a "Spike-and-Slab" prior, which suggest an "illusion of
sparsity" in economic data, as no clear patterns of sparsity could be detected.
We make a further revision of the posterior distributions of the model, and
propose three experiments to evaluate the robustness of the adopted prior
distribution. We find that the pattern of sparsity is sensitive to the prior
distribution of the regression coefficients, and present evidence that the
model indirectly induces variable selection and shrinkage, which suggests that
the "illusion of sparsity" could be, itself, an illusion. Code is available on
github.com/bfava/IllusionOfIllusion.
- Abstract(参考訳): ビッグデータの出現は、説明可能な変数が多数存在する場合に経済関係をどのようにモデル化するかという問題を引き起こす。
この問題をベイズ的手法で高密度モデルやスパースモデルを用いることで再検討し、変数の選択と縮小を可能にする。
より具体的には、Giannone, Lenza, Primiceri (2020) が「スパイク・アンド・スラブ」(Spike-and-Slab) で行った結果について論じる。
モデルの後方分布の更なる再検討を行い, 適用した事前分布のロバスト性を評価するための3つの実験を提案する。
このパターンは回帰係数の事前分布に敏感であり、モデルが間接的に変数選択と縮小を誘導する証拠を示し、これは「疎さのイリュージョン」自体が錯覚である可能性を示唆している。
コードはgithub.com/bfava/IllusionOfIllusionで入手できる。
関連論文リスト
- Rejection via Learning Density Ratios [50.91522897152437]
拒絶による分類は、モデルを予測しないことを許容する学習パラダイムとして現れます。
そこで我々は,事前学習したモデルの性能を最大化する理想的なデータ分布を求める。
私たちのフレームワークは、クリーンでノイズの多いデータセットで実証的にテストされます。
論文 参考訳(メタデータ) (2024-05-29T01:32:17Z) - Robust Outlier Rejection for 3D Registration with Variational Bayes [70.98659381852787]
我々は、ロバストアライメントのための新しい変分非局所ネットワークベース外乱除去フレームワークを開発した。
そこで本稿では, 投票に基づく不整合探索手法を提案し, 変換推定のための高品質な仮説的不整合をクラスタリングする。
論文 参考訳(メタデータ) (2023-04-04T03:48:56Z) - Bayesian Hierarchical Models for Counterfactual Estimation [12.159830463756341]
本稿では,多種多様なカウンターファクトの集合を推定する確率的パラダイムを提案する。
摂動を事前分布関数によるランダム変数として扱う。
収束特性の優れた勾配ベースサンプリング器は、後方サンプルを効率的に計算する。
論文 参考訳(メタデータ) (2023-01-21T00:21:11Z) - Regularizing Variational Autoencoder with Diversity and Uncertainty
Awareness [61.827054365139645]
変分オートエンコーダ(VAE)は、償却変分推論に基づいて潜伏変数の後部を近似する。
よりディバースで不確実な潜在空間を学習するための代替モデルDU-VAEを提案する。
論文 参考訳(メタデータ) (2021-10-24T07:58:13Z) - On the Role of Optimization in Double Descent: A Least Squares Study [30.44215064390409]
最小二乗対象の降下勾配解に対して過大なリスクを負うことを示す。
ノイズのない回帰の場合、二重降下は最適化関連量によってのみ説明される。
ニューラルネットワークの予測が保たれているかどうかを実証的に調査する。
論文 参考訳(メタデータ) (2021-07-27T09:13:11Z) - Contextual Dropout: An Efficient Sample-Dependent Dropout Module [60.63525456640462]
ドロップアウトは、ディープニューラルネットワークのトレーニングプロセスを正規化するシンプルで効果的なモジュールとして実証されています。
単純でスケーラブルなサンプル依存型ドロップアウトモジュールとして,効率的な構造設計によるコンテキスト型ドロップアウトを提案する。
提案手法は,不確実性推定の精度と品質の両面において,ベースライン法よりも優れていた。
論文 参考訳(メタデータ) (2021-03-06T19:30:32Z) - $\beta$-Cores: Robust Large-Scale Bayesian Data Summarization in the
Presence of Outliers [14.918826474979587]
古典的ベイズ推定の質は、観測結果が推定データ生成モデルに適合するかどうかに大きく依存する。
本稿では,大容量データセットに同時スケール可能な変分推論手法を提案する。
多様なシミュレーションおよび実データ、および様々な統計モデルにおいて、我々のアプローチの適用性について説明する。
論文 参考訳(メタデータ) (2020-08-31T13:47:12Z) - Bayesian Deep Learning and a Probabilistic Perspective of Generalization [56.69671152009899]
ディープアンサンブルはベイズ辺化を近似する有効なメカニズムであることを示す。
また,アトラクションの流域内での辺縁化により,予測分布をさらに改善する関連手法を提案する。
論文 参考訳(メタデータ) (2020-02-20T15:13:27Z) - Decision-Making with Auto-Encoding Variational Bayes [71.44735417472043]
変分分布とは異なる後部近似を用いて意思決定を行うことが示唆された。
これらの理論的な結果から,最適モデルに関するいくつかの近似的提案を学習することを提案する。
おもちゃの例に加えて,単細胞RNAシークエンシングのケーススタディも紹介する。
論文 参考訳(メタデータ) (2020-02-17T19:23:36Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。