論文の概要: Joint Stochastic Approximation and Its Application to Learning Discrete
Latent Variable Models
- arxiv url: http://arxiv.org/abs/2005.14001v1
- Date: Thu, 28 May 2020 13:50:08 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-27 04:45:25.300334
- Title: Joint Stochastic Approximation and Its Application to Learning Discrete
Latent Variable Models
- Title(参考訳): ジョイント確率近似とその離散潜在変数モデル学習への応用
- Authors: Zhijian Ou, Yunfu Song
- Abstract要約: 推定モデルに対する信頼度勾配を得るのが困難であることや、間接的にターゲットのログを最適化することの欠点を優雅に解決できることが示される。
本稿では,対象の対数類似度を直接最大化し,後部モデルと推論モデルとの包摂的ばらつきを同時に最小化することを提案する。
結果の学習アルゴリズムは、ジョイントSA(JSA)と呼ばれる。
- 参考スコア(独自算出の注目度): 19.07718284287928
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Although with progress in introducing auxiliary amortized inference models,
learning discrete latent variable models is still challenging. In this paper,
we show that the annoying difficulty of obtaining reliable stochastic gradients
for the inference model and the drawback of indirectly optimizing the target
log-likelihood can be gracefully addressed in a new method based on stochastic
approximation (SA) theory of the Robbins-Monro type. Specifically, we propose
to directly maximize the target log-likelihood and simultaneously minimize the
inclusive divergence between the posterior and the inference model. The
resulting learning algorithm is called joint SA (JSA). To the best of our
knowledge, JSA represents the first method that couples an SA version of the EM
(expectation-maximization) algorithm (SAEM) with an adaptive MCMC procedure.
Experiments on several benchmark generative modeling and structured prediction
tasks show that JSA consistently outperforms recent competitive algorithms,
with faster convergence, better final likelihoods, and lower variance of
gradient estimates.
- Abstract(参考訳): 補助償却推論モデルの導入が進んでいるが、離散的潜在変数モデルの学習は依然として困難である。
本稿では,robbins-monro型確率近似 (sa) 理論に基づく新しい手法において,推論モデルの信頼性の高い確率勾配を得ることの難しさと,目標対数を間接的に最適化することの欠点を浮き彫りにできることを示す。
具体的には,対象のログ類似度を直接最大化し,後方モデルと推論モデルとの包括的発散を最小化する。
その結果得られる学習アルゴリズムはジョイントsa(jsa)と呼ばれる。
我々の知る限り、JSAは、EM(Expectation-maximization)アルゴリズム(SAEM)のSAバージョンと適応MCMCプロシージャを結合する最初の方法である。
いくつかのベンチマーク生成モデルと構造化予測タスクの実験により、JSAは、より高速な収束、より良い最終可能性、より低い勾配推定の分散により、最近の競争アルゴリズムより一貫して優れていることが示された。
関連論文リスト
- Supervised Score-Based Modeling by Gradient Boosting [49.556736252628745]
本稿では,スコアマッチングを組み合わせた勾配向上アルゴリズムとして,SSM(Supervised Score-based Model)を提案する。
推測時間と予測精度のバランスをとるため,SSMの学習とサンプリングに関する理論的解析を行った。
我々のモデルは、精度と推測時間の両方で既存のモデルより優れています。
論文 参考訳(メタデータ) (2024-11-02T07:06:53Z) - Towards Stable Machine Learning Model Retraining via Slowly Varying Sequences [6.067007470552307]
そこで本研究では,繰り返しのトレーニングにおいて安定な機械学習モデルのシーケンスを見つける手法を提案する。
最適モデルの復元が保証される混合整数最適化の定式化を開発する。
本手法は, 予測力の小さい, 制御可能な犠牲を伴い, 厳密に訓練されたモデルよりも強い安定性を示す。
論文 参考訳(メタデータ) (2024-03-28T22:45:38Z) - When to Update Your Model: Constrained Model-based Reinforcement
Learning [50.74369835934703]
モデルベースRL(MBRL)の非遅延性能保証のための新規で一般的な理論スキームを提案する。
続いて導いた境界は、モデルシフトとパフォーマンス改善の関係を明らかにします。
さらなる例では、動的に変化する探索からの学習モデルが、最終的なリターンの恩恵をもたらすことが示されている。
論文 参考訳(メタデータ) (2022-10-15T17:57:43Z) - Temporal-Structure-Assisted Gradient Aggregation for Over-the-Air
Federated Edge Learning [24.248673415586413]
本稿では,モデル集約系列の固有時間構造を特徴付けるマルコフ確率モデルを提案する。
本研究では,時間構造支援勾配集約(TSA-GA)と呼ばれるメッセージパッシングアルゴリズムを開発し,この推定課題を満たす。
提案するtsagaアルゴリズムは最先端技術を大幅に上回り,同等の学習性能を達成可能であることを示す。
論文 参考訳(メタデータ) (2021-03-03T09:13:27Z) - Community Detection in the Stochastic Block Model by Mixed Integer
Programming [3.8073142980733]
Degree-Corrected Block Model (DCSBM) は、コミュニティ構造を持つランダムグラフを生成する一般的なモデルである。
DCSBMに基づくコミュニティ検出の標準的なアプローチは、最大推定(MLE)により観測されたネットワークデータを生成する可能性が最も高いモデルパラメータを探索することである。
本稿では,モデルパラメータと最大確率のコミュニティ割当を観測グラフから確実に求める数学的計画式と厳密解法を提案する。
論文 参考訳(メタデータ) (2021-01-26T22:04:40Z) - Autoregressive Score Matching [113.4502004812927]
自動回帰条件スコアモデル(AR-CSM)を提案する。
AR-CSMモデルでは、このデータ分布とモデル分布のばらつきを効率的に計算し、最適化することができ、高価なサンプリングや対向訓練を必要としない。
本研究では,合成データに対する密度推定,画像生成,画像復調,暗黙エンコーダを用いた潜在変数モデルの訓練に応用できることを示す。
論文 参考訳(メタデータ) (2020-10-24T07:01:24Z) - Control as Hybrid Inference [62.997667081978825]
本稿では、反復推論と償却推論のバランスを自然に仲介するCHIの実装について述べる。
連続的な制御ベンチマークでアルゴリズムのスケーラビリティを検証し、強力なモデルフリーおよびモデルベースラインを上回る性能を示す。
論文 参考訳(メタデータ) (2020-07-11T19:44:09Z) - Reparameterized Variational Divergence Minimization for Stable Imitation [57.06909373038396]
確率的発散の選択における変動が、より高性能なILOアルゴリズムをもたらす可能性について検討する。
本稿では,提案する$f$-divergence最小化フレームワークの課題を軽減するために,逆模倣学習のための再パラメータ化手法を提案する。
経験的に、我々の設計選択は、ベースラインアプローチより優れ、低次元連続制御タスクにおける専門家のパフォーマンスとより密に適合するIOOアルゴリズムを許容することを示した。
論文 参考訳(メタデータ) (2020-06-18T19:04:09Z) - BERT Loses Patience: Fast and Robust Inference with Early Exit [91.26199404912019]
本稿では,事前学習した言語モデルの効率性と堅牢性を向上させるためのプラグイン・アンド・プレイ手法として,Patience-based Early Exitを提案する。
提案手法では,モデルを少ないレイヤで予測できるため,推論効率が向上する。
論文 参考訳(メタデータ) (2020-06-07T13:38:32Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。