論文の概要: Deep Discriminative Direct Decoders for High-dimensional Time-series
Analysis
- arxiv url: http://arxiv.org/abs/2205.10947v1
- Date: Sun, 22 May 2022 22:44:41 GMT
- ステータス: 処理完了
- システム内更新日: 2022-05-29 15:33:31.263093
- Title: Deep Discriminative Direct Decoders for High-dimensional Time-series
Analysis
- Title(参考訳): 高次元時系列解析のための深層識別直接デコーダ
- Authors: Mohammad R. Rezaei, Milos R. Popovic, Milad Lankarany, Ali Yousefi
- Abstract要約: 本稿では、状態空間モデル(SSM)とディープニューラルネットワークモデル(DNN)を組み合わせた、直接判別デコーダ(DDD)モデルを提案する。
本稿では,DDDデコーディングのパフォーマンスが,SSMやDNNなど最先端のデコーディングソリューションを上回ることを示す。
我々はD4が高次元時系列データ解析の強力なツールであると主張する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Dynamical latent variable modeling has been significantly invested over the
last couple of decades with established solutions encompassing generative
processes like the state-space model (SSM) and discriminative processes like a
recurrent or a deep neural network (DNN). These solutions are powerful tools
with promising results; however, surprisingly they were never put together in a
unified model to analyze complex multivariate time-series data. A very recent
modeling approach, called the direct discriminative decoder (DDD) model,
proposes a principal solution to combine SMM and DNN models, with promising
results in decoding underlying latent processes, e.g. rat movement trajectory,
through high-dimensional neural recordings. The DDD consists of a) a state
transition process, as per the classical dynamical models, and b) a
discriminative process, like DNN, in which the conditional distribution of
states is defined as a function of the current observations and their recent
history. Despite promising results of the DDD model, no training solutions, in
the context of DNN, have been utilized for this model. Here, we propose how DNN
parameters along with an optimal history term can be simultaneously estimated
as a part of the DDD model. We use the D4 abbreviation for a DDD with a DNN as
its discriminative process. We showed the D4 decoding performance in both
simulation and (relatively) high-dimensional neural data. In both datasets, D4
performance surpasses the state-of-art decoding solutions, including those of
SSM and DNNs. The key success of DDD and potentially D4 is efficient
utilization of the recent history of observation along with the state-process
that carries long-term information, which is not addressed in either SSM or DNN
solutions. We argue that D4 can be a powerful tool for the analysis of
high-dimensional time-series data.
- Abstract(参考訳): 動的潜在変数モデリングは、状態空間モデル(SSM)のような生成プロセスと、リカレントやディープニューラルネットワーク(DNN)のような識別プロセスを含む確立されたソリューションによって、ここ数十年間で著しく投資されている。
これらのソリューションは有望な結果をもたらす強力なツールであるが、驚くべきことに、複雑な多変量時系列データを分析する統一モデルに組み込まれなかった。
直接判別デコーダ(DDD)モデルと呼ばれる非常に最近のモデリングアプローチでは、SMMとDNNモデルを組み合わせるための主要なソリューションが提案されている。
DDDは
a) 古典力学モデルに従って,状態遷移過程,及び
b) DNNのように、状態の条件分布を現在の観測とその最近の歴史の関数として定義する識別過程。
DDDモデルの有望な結果にもかかわらず、DNNの文脈では、このモデルにトレーニングソリューションは使われていない。
本稿では,DNNパラメータと最適履歴項を同時にDDDモデルの一部として推定する方法を提案する。
DNNを識別プロセスとするDDDでは、D4の省略形を使用します。
シミュレーションと(相対的に)高次元ニューラルデータの両方においてD4復号性能を示した。
どちらのデータセットでも、D4パフォーマンスはSSMやDNNなど、最先端のデコードソリューションを上回っている。
DDDと潜在的D4の主な成功は、SSMまたはDNNソリューションで対処されていない長期的な情報を運ぶ状態プロセスとともに、最近の観察の歴史を効率的に活用することである。
我々はD4が高次元時系列データ解析の強力なツールであると主張する。
関連論文リスト
- DyG-Mamba: Continuous State Space Modeling on Dynamic Graphs [59.434893231950205]
動的グラフ学習は、現実世界のシステムにおける進化の法則を明らかにすることを目的としている。
動的グラフ学習のための新しい連続状態空間モデルDyG-Mambaを提案する。
我々はDyG-Mambaがほとんどのデータセットで最先端のパフォーマンスを達成することを示す。
論文 参考訳(メタデータ) (2024-08-13T15:21:46Z) - Motion2VecSets: 4D Latent Vector Set Diffusion for Non-rigid Shape Reconstruction and Tracking [52.393359791978035]
Motion2VecSetsは点雲列からの動的表面再構成のための4次元拡散モデルである。
グローバルな潜在符号の代わりに、潜在集合で4Dダイナミクスをパラメータ化する。
時間的コヒーレントな物体追跡のために、変形潜在集合を同期的に認知し、複数のフレーム間で情報を交換する。
論文 参考訳(メタデータ) (2024-01-12T15:05:08Z) - Assessing Neural Network Representations During Training Using
Noise-Resilient Diffusion Spectral Entropy [55.014926694758195]
ニューラルネットワークにおけるエントロピーと相互情報は、学習プロセスに関する豊富な情報を提供する。
データ幾何を利用して基礎となる多様体にアクセスし、これらの情報理論測度を確実に計算する。
本研究は,高次元シミュレーションデータにおける固有次元と関係強度の耐雑音性の測定結果である。
論文 参考訳(メタデータ) (2023-12-04T01:32:42Z) - Learning in latent spaces improves the predictive accuracy of deep
neural operators [0.0]
L-DeepONetは標準のDeepONetの拡張であり、高次元PDE入力の潜在表現と適切なオートエンコーダで識別される出力関数を利用する。
L-DeepONetは時間依存PDEの精度と計算効率の両面で標準手法よりも優れていることを示す。
論文 参考訳(メタデータ) (2023-04-15T17:13:09Z) - Spectral learning of Bernoulli linear dynamical systems models [21.3534487101893]
本研究では,線形線形力学系モデルの高速かつ効率的なフィッティングのための学習法を開発した。
提案手法は,従来の部分空間同定手法をベルヌーイ設定に拡張する。
そこで本研究では,マウスの知覚決定タスクを実行することによって,実世界の環境を推定する手法を提案する。
論文 参考訳(メタデータ) (2023-03-03T16:29:12Z) - Deep Latent State Space Models for Time-Series Generation [68.45746489575032]
状態空間ODEに従って進化する潜伏変数を持つ列の生成モデルLS4を提案する。
近年の深層状態空間モデル(S4)に着想を得て,LS4の畳み込み表現を利用して高速化を実現する。
LS4は, 実世界のデータセット上での限界分布, 分類, 予測スコアにおいて, 従来の連続時間生成モデルよりも有意に優れていた。
論文 参考訳(メタデータ) (2022-12-24T15:17:42Z) - Data-driven low-dimensional dynamic model of Kolmogorov flow [0.0]
流れのダイナミクスを捉える低次モデル (ROM) はシミュレーションの計算コストの削減に重要である。
この研究は、フローのダイナミクスと特性を効果的にキャプチャする最小次元モデルのためのデータ駆動フレームワークを示す。
我々はこれをカオス的かつ断続的な行動からなる体制におけるコルモゴロフ流に適用する。
論文 参考訳(メタデータ) (2022-10-29T23:05:39Z) - Liquid Structural State-Space Models [106.74783377913433]
Liquid-S4はLong-Range Arenaベンチマークで平均87.32%の性能を達成した。
全生音声コマンド認識では、データセットLiquid-S4は96.78%の精度で、S4と比較してパラメータ数が30%減少している。
論文 参考訳(メタデータ) (2022-09-26T18:37:13Z) - SOM-CPC: Unsupervised Contrastive Learning with Self-Organizing Maps for
Structured Representations of High-Rate Time Series [23.074319429090092]
我々は,高次元情報を保存しながら,組織化された2次元多様体内のデータを可視化するモデルSOM-CPCを提案する。
我々は,SOM-CPCがDLベースの特徴抽出のような強力なベースラインよりも優れている,合成データと実生活データ(生理データとオーディオ記録)の両方について示す。
論文 参考訳(メタデータ) (2022-05-31T15:21:21Z) - Deep Cellular Recurrent Network for Efficient Analysis of Time-Series
Data with Spatial Information [52.635997570873194]
本研究では,空間情報を用いた複雑な多次元時系列データを処理するための新しいディープセルリカレントニューラルネットワーク(DCRNN)アーキテクチャを提案する。
提案するアーキテクチャは,文献に比較して,学習可能なパラメータをかなり少なくしつつ,最先端の性能を実現している。
論文 参考訳(メタデータ) (2021-01-12T20:08:18Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。