論文の概要: Context-specific kernel-based hidden Markov model for time series
analysis
- arxiv url: http://arxiv.org/abs/2301.09870v1
- Date: Tue, 24 Jan 2023 09:10:38 GMT
- ステータス: 処理完了
- システム内更新日: 2023-01-25 14:10:43.148500
- Title: Context-specific kernel-based hidden Markov model for time series
analysis
- Title(参考訳): 時系列解析のためのコンテキスト固有カーネルベース隠れマルコフモデル
- Authors: Carlos Puerto-Santana, Concha Bielza, Pedro Larra\~naga, Gustav Eje
Henter
- Abstract要約: カーネル密度推定に基づく隠れマルコフモデルを提案する。
コンテキスト固有のベイズネットワークを使ってカーネル依存を導入することができる。
提案モデルによる可能性と分類精度の利点を定量化し分析する。
- 参考スコア(独自算出の注目度): 9.007829035130886
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Traditional hidden Markov models have been a useful tool to understand and
model stochastic dynamic linear data; in the case of non-Gaussian data or not
linear in mean data, models such as mixture of Gaussian hidden Markov models
suffer from the computation of precision matrices and have a lot of unnecessary
parameters. As a consequence, such models often perform better when it is
assumed that all variables are independent, a hypothesis that may be
unrealistic. Hidden Markov models based on kernel density estimation is also
capable of modeling non Gaussian data, but they assume independence between
variables. In this article, we introduce a new hidden Markov model based on
kernel density estimation, which is capable of introducing kernel dependencies
using context-specific Bayesian networks. The proposed model is described,
together with a learning algorithm based on the expectation-maximization
algorithm. Additionally, the model is compared with related HMMs using
synthetic and real data. From the results, the benefits in likelihood and
classification accuracy from the proposed model are quantified and analyzed.
- Abstract(参考訳): 従来の隠れマルコフモデルは確率的線形データを理解し、モデル化するための有用なツールであり、非ガウス的データや平均データでは、ガウス的隠れマルコフモデルの混合のようなモデルは精度行列の計算に悩まされ、多くの不要なパラメータを持つ。
結果として、そのようなモデルは、全ての変数が独立であると仮定された場合、非現実的であるかもしれない仮説によりよく機能する。
核密度推定に基づく隠れマルコフモデルは、非ガウスデータもモデル化できるが、変数間の独立性を仮定する。
本稿では,カーネル密度推定に基づく新しい隠れマルコフモデルを提案する。
提案モデルと期待最大化アルゴリズムに基づく学習アルゴリズムについて述べる。
さらに、合成データと実データを用いて、関連するHMMと比較する。
以上の結果から,提案モデルによる確率と分類精度の利点を定量化し,分析した。
関連論文リスト
- Learning from aggregated data with a maximum entropy model [73.63512438583375]
我々は,観測されていない特徴分布を最大エントロピー仮説で近似することにより,ロジスティック回帰と類似した新しいモデルが,集約データからのみ学習されることを示す。
我々は、この方法で学習したモデルが、完全な非凝集データでトレーニングされたロジスティックモデルに匹敵するパフォーマンスを達成することができるという、いくつかの公開データセットに関する実証的な証拠を提示する。
論文 参考訳(メタデータ) (2022-10-05T09:17:27Z) - Learning Summary Statistics for Bayesian Inference with Autoencoders [58.720142291102135]
我々は,ディープニューラルネットワークに基づくオートエンコーダの内部次元を要約統計として利用する。
パラメータ関連情報を全て符号化するエンコーダのインセンティブを作成するため,トレーニングデータの生成に使用した暗黙的情報にデコーダがアクセスできるようにする。
論文 参考訳(メタデータ) (2022-01-28T12:00:31Z) - Inverting brain grey matter models with likelihood-free inference: a
tool for trustable cytoarchitecture measurements [62.997667081978825]
脳の灰白質細胞構造の特徴は、体密度と体積に定量的に敏感であり、dMRIでは未解決の課題である。
我々は新しいフォワードモデル、特に新しい方程式系を提案し、比較的スパースなb殻を必要とする。
次に,提案手法を逆転させるため,確率自由推論 (LFI) として知られるベイズ解析から最新のツールを適用した。
論文 参考訳(メタデータ) (2021-11-15T09:08:27Z) - Information Theoretic Structured Generative Modeling [13.117829542251188]
構造生成モデル (Structured Generative Model, SGM) と呼ばれる新しい生成モデルフレームワークが提案され, 簡単な最適化が可能となった。
この実装では、無限のガウス混合モデルを学習するために適合した単一白色ノイズ源への正則入力によって駆動される1つのニューラルネットワークを採用している。
予備的な結果は、SGMがデータ効率と分散、従来のガウス混合モデルと変分混合モデル、および敵ネットワークのトレーニングにおいてMINE推定を著しく改善することを示している。
論文 参考訳(メタデータ) (2021-10-12T07:44:18Z) - Latent Gaussian Model Boosting [0.0]
ツリーブースティングは多くのデータセットに対して優れた予測精度を示す。
シミュレーションおよび実世界のデータ実験において,既存の手法と比較して予測精度が向上した。
論文 参考訳(メタデータ) (2021-05-19T07:36:30Z) - Learning with Density Matrices and Random Features [62.997667081978825]
密度行列は、量子系の統計状態を記述する。
本稿では,機械学習モデル構築のためのビルディングブロックとして,密度行列をどのように利用できるかを検討する。
論文 参考訳(メタデータ) (2021-02-08T17:54:59Z) - Anomaly Detection of Time Series with Smoothness-Inducing Sequential
Variational Auto-Encoder [59.69303945834122]
Smoothness-Inducing Sequential Variational Auto-Encoder (SISVAE) モデルを提案する。
我々のモデルは、フレキシブルニューラルネットワークを用いて各タイムスタンプの平均と分散をパラメータ化する。
合成データセットと公開実世界のベンチマークの両方において,本モデルの有効性を示す。
論文 参考訳(メタデータ) (2021-02-02T06:15:15Z) - Variational Mixture of Normalizing Flows [0.0]
生成逆数ネットワークオートサイトGAN、変分オートエンコーダオートサイトベイペーパー、およびそれらの変種などの深い生成モデルは、複雑なデータ分布をモデル化するタスクに広く採用されている。
正規化フローはこの制限を克服し、確率密度関数にそのような公式の変更を利用する。
本研究は,混合モデルのコンポーネントとして正規化フローを用い,そのようなモデルのエンドツーエンドトレーニング手順を考案することによって,この問題を克服する。
論文 参考訳(メタデータ) (2020-09-01T17:20:08Z) - Bayesian Sparse Factor Analysis with Kernelized Observations [67.60224656603823]
多視点問題は潜在変数モデルに直面することができる。
高次元問題と非線形問題は伝統的にカーネルメソッドによって扱われる。
両アプローチを単一モデルにマージすることを提案する。
論文 参考訳(メタデータ) (2020-06-01T14:25:38Z) - Estimation of sparse Gaussian graphical models with hidden clustering
structure [8.258451067861932]
隠れクラスタリング構造を持つスパースガウス図形モデルを推定するモデルを提案する。
対称なガウス・シーデルに基づく乗算器の交互方向法を開発した。
合成データと実データの両方に関する数値実験により,本モデルの有効性が示された。
論文 参考訳(メタデータ) (2020-04-17T08:43:31Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。