論文の概要: Infinity Learning: Learning Markov Chains from Aggregate Steady-State
Observations
- arxiv url: http://arxiv.org/abs/2002.04186v1
- Date: Tue, 11 Feb 2020 03:29:13 GMT
- ステータス: 処理完了
- システム内更新日: 2023-01-02 01:18:56.467474
- Title: Infinity Learning: Learning Markov Chains from Aggregate Steady-State
Observations
- Title(参考訳): infinity learning:集合定常観測によるマルコフ連鎖の学習
- Authors: Jianfei Gao, Mohamed A. Zahran, Amit Sheoran, Sonia Fahmy, Bruno
Ribeiro
- Abstract要約: 本研究では, 連続時間マルコフ連鎖(CTMC)シーケンスモデルを, シーケンスの例を伴わずに学習する作業について考察する。
定常状態に必要な無限の和を避けるためにランダムに停止した推定器を用いる勾配降下法であるinfty$-SGDを提案する。
実世界のテストベッドと合成実験に$infty$-SGDを適用し、その精度、定常状態分布を観測されていない状態に外挿する能力を示す。
- 参考スコア(独自算出の注目度): 13.973232545822247
- License: http://creativecommons.org/licenses/by-sa/4.0/
- Abstract: We consider the task of learning a parametric Continuous Time Markov Chain
(CTMC) sequence model without examples of sequences, where the training data
consists entirely of aggregate steady-state statistics. Making the problem
harder, we assume that the states we wish to predict are unobserved in the
training data. Specifically, given a parametric model over the transition rates
of a CTMC and some known transition rates, we wish to extrapolate its steady
state distribution to states that are unobserved. A technical roadblock to
learn a CTMC from its steady state has been that the chain rule to compute
gradients will not work over the arbitrarily long sequences necessary to reach
steady state ---from where the aggregate statistics are sampled. To overcome
this optimization challenge, we propose $\infty$-SGD, a principled stochastic
gradient descent method that uses randomly-stopped estimators to avoid infinite
sums required by the steady state computation, while learning even when only a
subset of the CTMC states can be observed. We apply $\infty$-SGD to a
real-world testbed and synthetic experiments showcasing its accuracy, ability
to extrapolate the steady state distribution to unobserved states under
unobserved conditions (heavy loads, when training under light loads), and
succeeding in difficult scenarios where even a tailor-made extension of
existing methods fails.
- Abstract(参考訳): 我々は,連続時間マルコフ連鎖(ctmc)系列モデルについて,シーケンスの例を使わずに学習するタスクについて検討する。
問題を困難にするため、予測したい状態がトレーニングデータに記録されていないと仮定する。
具体的には、CTMCの遷移速度といくつかの既知の遷移速度に関するパラメトリックモデルを考えると、その定常状態分布を観測されていない状態に外挿したい。
CTMCを定常状態から学習する技術的な障害は、勾配を計算するチェーンルールが、定常状態に到達するために必要な任意の長いシーケンスで機能しないことである。
この最適化課題を克服するために,CTMC状態のサブセットしか観測できない場合でも学習しながら,ランダムにストップした推定器を用いて,定常状態の計算に必要な無限の和を回避し,確率勾配降下法である$\infty$-SGDを提案する。
実世界のテストベッドと合成実験に$\infty$-sgdを適用し、その正確性、観測されていない条件下での定常分布を外挿する能力(重負荷、光負荷下でのトレーニング)、そして既存のメソッドのテーラーメイド拡張さえ失敗する難しいシナリオを成功させた。
関連論文リスト
- Poisson-Gamma Dynamical Systems with Non-Stationary Transition Dynamics [54.19709905569658]
非定常PGDSは、基礎となる遷移行列が時間とともに進化できるように提案されている。
後続シミュレーションを行うために, 完全共役かつ効率的なギブスサンプリング装置を開発した。
実験により,提案した非定常PGDSは,関連するモデルと比較して予測性能が向上することを示した。
論文 参考訳(メタデータ) (2024-02-26T04:39:01Z) - When and How: Learning Identifiable Latent States for Nonstationary Time
Series Forecasting [30.97744070962643]
識別可能なlatEnt stAtes (IDEA) を学習し、分布シフトの発生を検知する。
我々は、十分な観測仮定により、静止状態と非定常状態をさらに遠ざけている。
温和な条件下では、潜伏環境と定常・非定常変数が識別可能であることを示す。
これらの理論に基づいて,自己回帰型隠れマルコフモデルを用いて潜伏環境を推定するIDEAモデルを考案した。
論文 参考訳(メタデータ) (2024-02-20T07:16:12Z) - Online Variational Sequential Monte Carlo [56.16884466478886]
我々は,計算効率が高く正確なモデルパラメータ推定とベイジアン潜在状態推定を提供する変分連続モンテカルロ法(VSMC)を構築した。
オンラインVSMCは、パラメータ推定と粒子提案適応の両方を効率よく、完全にオンザフライで実行することができる。
論文 参考訳(メタデータ) (2023-12-19T21:45:38Z) - DANSE: Data-driven Non-linear State Estimation of Model-free Process in
Unsupervised Learning Setup [15.050217144222017]
データ駆動リカレントニューラルネットワーク(RNN)は、状態の先行パラメータを提供するために、DANSEで使用される。
DANSEのトレーニングは、主にRNNのパラメータを学習するが、教師なし学習アプローチを用いて実行される。
提案したDANSEは,プロセスモデルを知ることなく,教師付き学習も行わず,モデル駆動手法と競合する性能を発揮することを示す。
論文 参考訳(メタデータ) (2023-06-04T15:03:39Z) - Robust Continual Test-time Adaptation: Instance-aware BN and
Prediction-balanced Memory [58.72445309519892]
テストデータストリーム以外のデータストリームに対して堅牢な新しいテスト時間適応方式を提案する。
a)分布外サンプルの正規化を修正するIABN(Instance-Aware Batch Normalization)と、(b)クラスバランスのない方法で非i.d.ストリームからのデータストリームをシミュレートするPBRS(Predict- Balanced Reservoir Sampling)である。
論文 参考訳(メタデータ) (2022-08-10T03:05:46Z) - Fast and Credible Likelihood-Free Cosmology with Truncated Marginal
Neural Ratio Estimation [0.0]
Truncated Marginal Neural Ratio Estimation (TMNRE)は、いわゆるシミュレーションベース推論における新しいアプローチである。
TMNREは従来のマルコフチェインモンテカルロよりもはるかに少ないシミュレータコールで収束後処理を実現できることを示す。
TMNREは、特に拡張宇宙論の文脈において、宇宙データ分析の強力なツールになることを約束する。
論文 参考訳(メタデータ) (2021-11-15T19:00:09Z) - Likelihood-Free Inference in State-Space Models with Unknown Dynamics [71.94716503075645]
本研究では、状態空間モデルにおいて、観測をシミュレートすることしかできず、遷移ダイナミクスが不明な潜在状態の推測と予測を行う手法を提案する。
本研究では,限られた数のシミュレーションで状態予測と状態予測を行う手法を提案する。
論文 参考訳(メタデータ) (2021-11-02T12:33:42Z) - Efficient Learning and Decoding of the Continuous-Time Hidden Markov
Model for Disease Progression Modeling [119.50438407358862]
本稿では,CT-HMMモデルに対する効率的なEMベースの学習手法の完全な特徴付けについて述べる。
EMに基づく学習は、後状態確率の推定と、状態条件付き統計量の計算という2つの課題から成り立っていることを示す。
緑内障データセットとアルツハイマー病データセットを用いて,100以上の状態のCT-HMMを用いて疾患進行の可視化と予測を行う。
論文 参考訳(メタデータ) (2021-10-26T20:06:05Z) - Dynamical Wasserstein Barycenters for Time-series Modeling [16.212262513825717]
ほとんどの先行研究は、純粋な離散状態間の即時遷移を前提としている。
本稿では,時間とともにシステム状態を推定するWasserstein Barycentric (DWB)モデルを提案する。
いくつかの人的活動データセットの実験により、提案したDWBモデルが純粋状態の生成過程を正確に学習できることが示されている。
論文 参考訳(メタデータ) (2021-10-13T14:20:06Z) - Comparing Probability Distributions with Conditional Transport [63.11403041984197]
新しい発散として条件輸送(CT)を提案し、償却されたCT(ACT)コストと近似します。
ACTは条件付き輸送計画の計算を補正し、計算が容易な非バイアスのサンプル勾配を持つ。
さまざまなベンチマークデータセットのジェネレーティブモデリングでは、既存のジェネレーティブ敵対ネットワークのデフォルトの統計距離をACTに置き換えることで、一貫してパフォーマンスを向上させることが示されています。
論文 参考訳(メタデータ) (2020-12-28T05:14:22Z) - Deep Learning based Uncertainty Decomposition for Real-time Control [9.067368638784355]
本稿では,ディープラーニングを用いたトレーニングデータの欠如を検出する新しい手法を提案する。
合成および実世界のデータセットに対する既存のアプローチに対する利点を示す。
さらに、シミュレーションされたクアッドコプターにオンラインデータ効率制御を展開させる上で、この不確実性推定の実用性を実証する。
論文 参考訳(メタデータ) (2020-10-06T10:46:27Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。