論文の概要: Structural Sieves
- arxiv url: http://arxiv.org/abs/2112.01377v1
- Date: Wed, 1 Dec 2021 16:37:02 GMT
- ステータス: 処理完了
- システム内更新日: 2021-12-03 15:02:40.845223
- Title: Structural Sieves
- Title(参考訳): 構造シーブ
- Authors: Konrad Menzel
- Abstract要約: 特に, あるディープネットワークは, 近似回帰関数に対する非パラメトリックシーブとして好適であることを示す。
このような制約は、潜在変数モデルの十分に柔軟なバージョンが、実際には未知の回帰関数を近似するために使用される場合、より簡単な方法で課されることを示す。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: This paper explores the use of deep neural networks for semiparametric
estimation of economic models of maximizing behavior in production or discrete
choice. We argue that certain deep networks are particularly well suited as a
nonparametric sieve to approximate regression functions that result from
nonlinear latent variable models of continuous or discrete optimization.
Multi-stage models of this type will typically generate rich interaction
effects between regressors ("inputs") in the regression function so that there
may be no plausible separability restrictions on the "reduced-form" mapping
form inputs to outputs to alleviate the curse of dimensionality. Rather,
economic shape, sparsity, or separability restrictions either at a global level
or intermediate stages are usually stated in terms of the latent variable
model. We show that restrictions of this kind are imposed in a more
straightforward manner if a sufficiently flexible version of the latent
variable model is in fact used to approximate the unknown regression function.
- Abstract(参考訳): 本稿では,生産における行動最大化や離散的選択の経済モデルの半パラメトリック推定におけるディープニューラルネットワークの利用について検討する。
我々は、ある種のディープネットワークは、連続あるいは離散最適化の非線形潜在変数モデルから生じる近似回帰関数に対する非パラメトリックシーブとして特に適していると主張する。
このタイプの多段階モデルは通常、回帰関数におけるレグレッセプタ("inputs")間のリッチな相互作用効果を生じさせ、次元の呪いを和らげるために入力から出力への"reduced-form" マッピングに可能な分離可能性の制限がなくなるかもしれない。
むしろ、グローバルレベルまたは中間段階における経済的形状、スパーシティまたは分離可能性の制限は、通常、潜在変数モデルによって記述される。
このような制約は、潜在変数モデルの十分に柔軟なバージョンが実際に未知の回帰関数を近似するために使われる場合、より簡単な方法で課される。
関連論文リスト
- A Non-negative VAE:the Generalized Gamma Belief Network [49.970917207211556]
ガンマ信念ネットワーク(GBN)は、テキストデータ中の多層解釈可能な潜在表現を明らかにする可能性を実証している。
本稿では、一般化ガンマ信念ネットワーク(Generalized GBN)を導入し、元の線形生成モデルをより表現力のある非線形生成モデルに拡張する。
また、潜伏変数の後方分布を近似する上向きのワイブル推論ネットワークを提案する。
論文 参考訳(メタデータ) (2024-08-06T18:18:37Z) - Scaling and renormalization in high-dimensional regression [72.59731158970894]
本稿では,様々な高次元リッジ回帰モデルの訓練および一般化性能の簡潔な導出について述べる。
本稿では,物理と深層学習の背景を持つ読者を対象に,これらのトピックに関する最近の研究成果の紹介とレビューを行う。
論文 参考訳(メタデータ) (2024-05-01T15:59:00Z) - On the Dynamics Under the Unhinged Loss and Beyond [104.49565602940699]
我々は、閉形式力学を解析するための数学的機会を提供する、簡潔な損失関数であるアンヒンジド・ロスを導入する。
アンヒンジされた損失は、時間変化学習率や特徴正規化など、より実践的なテクニックを検討することができる。
論文 参考訳(メタデータ) (2023-12-13T02:11:07Z) - Multi-Response Heteroscedastic Gaussian Process Models and Their
Inference [1.52292571922932]
本稿ではヘテロセダスティック共分散関数のモデリングのための新しいフレームワークを提案する。
後部モデルに近似し, 後部予測モデルを容易にするために, 変分推論を用いる。
提案するフレームワークは,幅広いアプリケーションに対して,堅牢で汎用的なツールを提供する。
論文 参考訳(メタデータ) (2023-08-29T15:06:47Z) - Posterior Collapse and Latent Variable Non-identifiability [54.842098835445]
柔軟性を犠牲にすることなく識別性を強制する深層生成モデルである,潜時同定可能な変分オートエンコーダのクラスを提案する。
合成および実データ全体にわたって、潜在識別可能な変分オートエンコーダは、後方崩壊を緩和し、データの有意義な表現を提供する既存の方法より優れている。
論文 参考訳(メタデータ) (2023-01-02T06:16:56Z) - Variational Hierarchical Mixtures for Probabilistic Learning of Inverse
Dynamics [20.953728061894044]
適切に校正された確率回帰モデルは、データセットが急速に成長し、タスクがより複雑になるにつれて、ロボットアプリケーションにおいて重要な学習要素である。
計算効率のよい表現と計算複雑性の正規化を両世界の利点と組み合わせた確率論的階層的モデリングパラダイムを考察する。
これらの表現を学習するための2つの効率的な変分推論手法を導出し、階層的無限局所回帰モデルの利点を強調する。
論文 参考訳(メタデータ) (2022-11-02T13:54:07Z) - Closed-form Continuous-Depth Models [99.40335716948101]
連続深度ニューラルモデルは高度な数値微分方程式解法に依存している。
我々は,CfCネットワークと呼ばれる,記述が簡単で,少なくとも1桁高速な新しいモデル群を提示する。
論文 参考訳(メタデータ) (2021-06-25T22:08:51Z) - Efficient Marginalization of Discrete and Structured Latent Variables
via Sparsity [26.518803984578867]
離散的な(分類的または構造化された)潜在変数を持つニューラルネットワークモデルを訓練することは、計算的に困難である。
典型的には、真の限界のサンプリングに基づく近似に頼っている。
そこで本研究では,これらの推定器を高精度かつ効率的なマージン化によって置き換える新たなトレーニング戦略を提案する。
論文 参考訳(メタデータ) (2020-07-03T19:36:35Z) - Slice Sampling for General Completely Random Measures [74.24975039689893]
本稿では, 後続推定のためのマルコフ連鎖モンテカルロアルゴリズムについて, 補助スライス変数を用いてトランケーションレベルを適応的に設定する。
提案アルゴリズムの有効性は、いくつかの一般的な非パラメトリックモデルで評価される。
論文 参考訳(メタデータ) (2020-06-24T17:53:53Z) - Latent variable modeling with random features [7.856578780790166]
我々は非ガウス的データ可能性に容易に対応できる非線形次元減少モデルのファミリーを開発する。
我々の一般化されたRFLVMは、他の最先端の次元還元法に匹敵する結果が得られる。
論文 参考訳(メタデータ) (2020-06-19T14:12:05Z) - Dimension Independent Generalization Error by Stochastic Gradient
Descent [12.474236773219067]
本稿では, 局所凸損失関数に対する降下(SGD)解の一般化誤差に関する理論を提案する。
一般化誤差は$p$次元に依存したり、低効用$p$対数因子に依存しないことを示す。
論文 参考訳(メタデータ) (2020-03-25T03:08:41Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。