論文の概要: SGMM: Stochastic Approximation to Generalized Method of Moments
- arxiv url: http://arxiv.org/abs/2308.13564v2
- Date: Mon, 30 Oct 2023 22:13:18 GMT
- ステータス: 処理完了
- システム内更新日: 2023-11-01 22:48:48.765798
- Title: SGMM: Stochastic Approximation to Generalized Method of Moments
- Title(参考訳): SGMM: モーメントの一般化法に対する確率近似
- Authors: Xiaohong Chen, Sokbae Lee, Yuan Liao, Myung Hwan Seo, Youngki Shin,
Myunghyun Song
- Abstract要約: 本稿では,モーメントの一般化法 (Generalized Method of Moments, SGMM) というアルゴリズムを導入し, モーメント制約モデルの推定と推定を行う。
我々のSGMMは、人気のあるHansen (1982) (オフライン) GMMの新たな近似であり、ストリーミングデータセットをリアルタイムに処理できる高速でスケーラブルな実装を提供する。
- 参考スコア(独自算出の注目度): 8.48870560391056
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We introduce a new class of algorithms, Stochastic Generalized Method of
Moments (SGMM), for estimation and inference on (overidentified) moment
restriction models. Our SGMM is a novel stochastic approximation alternative to
the popular Hansen (1982) (offline) GMM, and offers fast and scalable
implementation with the ability to handle streaming datasets in real time. We
establish the almost sure convergence, and the (functional) central limit
theorem for the inefficient online 2SLS and the efficient SGMM. Moreover, we
propose online versions of the Durbin-Wu-Hausman and Sargan-Hansen tests that
can be seamlessly integrated within the SGMM framework. Extensive Monte Carlo
simulations show that as the sample size increases, the SGMM matches the
standard (offline) GMM in terms of estimation accuracy and gains over
computational efficiency, indicating its practical value for both large-scale
and online datasets. We demonstrate the efficacy of our approach by a proof of
concept using two well known empirical examples with large sample sizes.
- Abstract(参考訳): 本稿では,(過大な)モーメント制限モデルに対する推定と推論のための新しいアルゴリズムである確率的一般化モーメント法(sgmm)を提案する。
我々のSGMMは、人気のあるHansen (1982) (オフライン) GMMに代わる新しい確率近似であり、ストリーミングデータセットをリアルタイムに処理できる高速でスケーラブルな実装を提供する。
ほぼ確実な収束と、非効率的なオンライン2SLSと効率的なSGMMに対する(機能的な)中心極限定理を確立する。
さらに,SGMMフレームワークにシームレスに統合可能なDurbin-Wu-HausmanおよびSargan-Hansenテストのオンライン版を提案する。
大規模なモンテカルロシミュレーションでは、サンプルのサイズが大きくなるにつれて、SGMMは推定精度の点で標準(オフライン)GMMと一致し、計算効率が向上し、大規模なデータセットとオンラインデータセットの両方で実用的価値が示される。
サンプルサイズが大きい2つのよく知られた実験例を用いて,概念実証によるアプローチの有効性を実証した。
関連論文リスト
- Online Variational Sequential Monte Carlo [49.97673761305336]
我々は,計算効率が高く正確なモデルパラメータ推定とベイジアン潜在状態推定を提供する変分連続モンテカルロ法(VSMC)を構築した。
オンラインVSMCは、パラメータ推定と粒子提案適応の両方を効率よく、完全にオンザフライで実行することができる。
論文 参考訳(メタデータ) (2023-12-19T21:45:38Z) - Learning Hidden Markov Models Using Conditional Samples [72.20944611510198]
本稿では,隠れマルコフモデル(HMM)の学習における計算複雑性について述べる。
本稿では,HMMの条件分布からサンプルを問合せする対話型アクセスモデルを提案する。
具体的には、正確な条件付き確率に対するクエリアクセスが可能な設定において、HMMを学習するための効率的なアルゴリズムを得る。
論文 参考訳(メタデータ) (2023-02-28T16:53:41Z) - Bridging the Usability Gap: Theoretical and Methodological Advances for Spectral Learning of Hidden Markov Models [0.8287206589886879]
Baum-Welch (B-W) アルゴリズムは隠れマルコフモデル(HMM)を推定する最も広く受け入れられている手法である
ローカルのオプティマで立ち往生する傾向があり、多くのリアルタイムアプリケーションでは遅すぎる可能性がある。
本稿では,誤り伝播の問題を緩和するプロジェクテッドSHMM (PSHMM) という新しいアルゴリズムを提案する。
論文 参考訳(メタデータ) (2023-02-15T02:58:09Z) - Stochastic First-Order Learning for Large-Scale Flexibly Tied Gaussian
Mixture Model [3.4546761246181696]
ガウス混合モデル(GMM)の多様体上での新しい最適化アルゴリズムを提案する。
我々は,予測最大化アルゴリズムを,より高い確率で達成し,収束のエポックを少なくし,各エポックあたりの時間を少なくすることができることを観察した。
論文 参考訳(メタデータ) (2022-12-11T04:24:52Z) - Robust Algorithms for GMM Estimation: A Finite Sample Viewpoint [30.839245814393724]
モーメントの一般化法(GMM)
我々はGMM推定器を開発し、一定の$ell$リカバリ保証を$O(sqrtepsilon)$で許容する。
我々のアルゴリズムと仮定は、機器変数の線形回帰とロジスティック回帰に適用できる。
論文 参考訳(メタデータ) (2021-10-06T21:06:22Z) - Continual Learning with Fully Probabilistic Models [70.3497683558609]
機械学習の完全確率的(または生成的)モデルに基づく継続的学習のアプローチを提案する。
生成器と分類器の両方に対してガウス混合モデル(GMM)インスタンスを用いた擬似リハーサル手法を提案する。
我々は,GMRが,クラス増分学習問題に対して,非常に競合的な時間とメモリの複雑さで,最先端のパフォーマンスを達成することを示す。
論文 参考訳(メタデータ) (2021-04-19T12:26:26Z) - Cauchy-Schwarz Regularized Autoencoder [68.80569889599434]
変分オートエンコーダ(VAE)は、強力で広く使われている生成モデルのクラスである。
GMMに対して解析的に計算できるCauchy-Schwarz分散に基づく新しい制約対象を導入する。
本研究の目的は,密度推定,教師なしクラスタリング,半教師なし学習,顔分析における変分自動エンコーディングモデルの改善である。
論文 参考訳(メタデータ) (2021-01-06T17:36:26Z) - Scaling Hidden Markov Language Models [118.55908381553056]
この研究は、HMMを言語モデリングデータセットに拡張するという課題を再考する。
本研究では,HMMを大規模状態空間に拡張する手法を提案する。
論文 参考訳(メタデータ) (2020-11-09T18:51:55Z) - Online Covariance Matrix Estimation in Stochastic Gradient Descent [10.153224593032677]
勾配降下(SGD)は,特に大規模データセットやオンライン学習においてパラメータ推定に広く用いられている。
本稿では,オンライン環境でのSGDに基づく推定値の統計的推測を定量化することを目的とする。
論文 参考訳(メタデータ) (2020-02-10T17:46:10Z) - Scalable Hybrid HMM with Gaussian Process Emission for Sequential
Time-series Data Clustering [13.845932997326571]
隠れマルコフモデル(HMM)とガウス過程(GP)のエミッションを組み合わせることで、隠れた状態を効率的に推定することができる。
本稿では,HMM-GPSMのためのスケーラブルな学習法を提案する。
論文 参考訳(メタデータ) (2020-01-07T07:28:21Z) - Semi-Supervised Learning with Normalizing Flows [54.376602201489995]
FlowGMMは、フローの正規化を伴う生成半教師付き学習におけるエンドツーエンドのアプローチである。
我々は AG-News や Yahoo Answers のテキストデータなど,幅広いアプリケーションに対して有望な結果を示す。
論文 参考訳(メタデータ) (2019-12-30T17:36:33Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。