論文の概要: Amortised Learning by Wake-Sleep
- arxiv url: http://arxiv.org/abs/2002.09737v2
- Date: Sat, 15 Aug 2020 22:37:41 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-29 18:53:14.224435
- Title: Amortised Learning by Wake-Sleep
- Title(参考訳): ウェイクリープによる記憶学習
- Authors: Li K. Wenliang, Theodore Moskovitz, Heishiro Kanagawa, Maneesh Sahani
- Abstract要約: 我々は、覚醒時のモンテカルロ戦略を用いて、最大値のパラメータ更新を直接見積もる関数を学習する。
蓄積学習は、生成モデルから潜伏者や観察者のサンプルをシミュレートするときに可能となる。
- 参考スコア(独自算出の注目度): 14.777274711706651
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Models that employ latent variables to capture structure in observed data lie
at the heart of many current unsupervised learning algorithms, but exact
maximum-likelihood learning for powerful and flexible latent-variable models is
almost always intractable. Thus, state-of-the-art approaches either abandon the
maximum-likelihood framework entirely, or else rely on a variety of variational
approximations to the posterior distribution over the latents. Here, we propose
an alternative approach that we call amortised learning. Rather than computing
an approximation to the posterior over latents, we use a wake-sleep Monte-Carlo
strategy to learn a function that directly estimates the maximum-likelihood
parameter updates. Amortised learning is possible whenever samples of latents
and observations can be simulated from the generative model, treating the model
as a "black box". We demonstrate its effectiveness on a wide range of complex
models, including those with latents that are discrete or supported on
non-Euclidean spaces.
- Abstract(参考訳): 観測データの構造をキャプチャするために潜在変数を使用するモデルは、現在教師なし学習アルゴリズムの心臓部にあるが、強力で柔軟な潜在変数モデルのための正確な最大類似学習は、ほとんど常に難解である。
したがって、最先端のアプローチは最大相似フレームワークを完全に放棄するか、あるいは潜伏体上の後方分布に対する様々な変分近似に依存するかのどちらかである。
ここでは、償却学習と呼ぶ別のアプローチを提案する。
待ち行列に対する近似を計算するのではなく、覚醒のモンテカルロ戦略を用いて最大値のパラメータの更新を直接推定する関数を学習する。
償却学習は、潜伏者や観測者のサンプルを生成モデルからシミュレートし、モデルを「ブラックボックス」として扱うことができる。
我々は、非ユークリッド空間上で離散化または支持される潜在性を持つものを含む、幅広い複素モデルでその効果を示す。
関連論文リスト
- Class-Incremental Mixture of Gaussians for Deep Continual Learning [15.49323098362628]
本稿では,ガウスモデルの混合を連続学習フレームワークに組み込むことを提案する。
固定抽出器を用いたメモリフリーシナリオにおいて,本モデルが効果的に学習可能であることを示す。
論文 参考訳(メタデータ) (2023-07-09T04:33:19Z) - OpenSTL: A Comprehensive Benchmark of Spatio-Temporal Predictive
Learning [67.07363529640784]
提案するOpenSTLは,一般的なアプローチを再帰的モデルと再帰的モデルに分類する。
我々は, 合成移動物体軌道, 人間の動き, 運転シーン, 交通流, 天気予報など, さまざまな領域にわたるデータセットの標準評価を行う。
リカレントフリーモデルは、リカレントモデルよりも効率と性能のバランスが良いことがわかった。
論文 参考訳(メタデータ) (2023-06-20T03:02:14Z) - Latent Traversals in Generative Models as Potential Flows [113.4232528843775]
我々は,学習された動的ポテンシャルランドスケープを持つ潜在構造をモデル化することを提案する。
物理、最適輸送、神経科学にインスパイアされたこれらの潜在的景観は、物理的に現実的な偏微分方程式として学習される。
本手法は,最先端のベースラインよりも定性的かつ定量的に歪んだ軌跡を実現する。
論文 参考訳(メタデータ) (2023-04-25T15:53:45Z) - Latent Variable Representation for Reinforcement Learning [131.03944557979725]
モデルに基づく強化学習のサンプル効率を改善するために、潜在変数モデルが学習、計画、探索をいかに促進するかは理論上、実証上、不明である。
状態-作用値関数に対する潜在変数モデルの表現ビューを提供する。これは、抽出可能な変分学習アルゴリズムと楽観主義/悲観主義の原理の効果的な実装の両方を可能にする。
特に,潜伏変数モデルのカーネル埋め込みを組み込んだUPB探索を用いた計算効率の良い計画アルゴリズムを提案する。
論文 参考訳(メタデータ) (2022-12-17T00:26:31Z) - Learning Sparse Latent Representations for Generator Model [7.467412443287767]
そこで本研究では,ジェネレータモデルの潜在空間に空間空間を強制する教師なし学習手法を提案する。
我々のモデルは1つのトップダウンジェネレータネットワークから成り、潜在変数を観測データにマッピングする。
論文 参考訳(メタデータ) (2022-09-20T18:58:24Z) - Anomaly Detection of Time Series with Smoothness-Inducing Sequential
Variational Auto-Encoder [59.69303945834122]
Smoothness-Inducing Sequential Variational Auto-Encoder (SISVAE) モデルを提案する。
我々のモデルは、フレキシブルニューラルネットワークを用いて各タイムスタンプの平均と分散をパラメータ化する。
合成データセットと公開実世界のベンチマークの両方において,本モデルの有効性を示す。
論文 参考訳(メタデータ) (2021-02-02T06:15:15Z) - Improving the Reconstruction of Disentangled Representation Learners via Multi-Stage Modeling [54.94763543386523]
現在の自己エンコーダに基づく非絡み合い表現学習法は、(集合体)後部をペナルティ化し、潜伏因子の統計的独立を促進することで、非絡み合いを実現する。
本稿では,不整合因子をペナルティに基づく不整合表現学習法を用いて学習する,新しい多段階モデリング手法を提案する。
次に、低品質な再構成を、欠落した関連潜伏変数をモデル化するために訓練された別の深層生成モデルで改善する。
論文 参考訳(メタデータ) (2020-10-25T18:51:15Z) - Prediction-Centric Learning of Independent Cascade Dynamics from Partial
Observations [13.680949377743392]
本稿では,このモデルから生成された予測が正確であるような拡散モデルの学習の問題に対処する。
本稿では,スケーラブルな動的メッセージパッシング手法に基づく計算効率のよいアルゴリズムを提案する。
学習モデルからの抽出可能な推論は,元のモデルと比較して限界確率の予測精度がよいことを示す。
論文 参考訳(メタデータ) (2020-07-13T17:58:21Z) - Model-Augmented Actor-Critic: Backpropagating through Paths [81.86992776864729]
現在のモデルに基づく強化学習アプローチでは、単に学習されたブラックボックスシミュレータとしてモデルを使用する。
その微分可能性を利用してモデルをより効果的に活用する方法を示す。
論文 参考訳(メタデータ) (2020-05-16T19:18:10Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。