論文の概要: Discovering group dynamics in synchronous time series via hierarchical
recurrent switching-state models
- arxiv url: http://arxiv.org/abs/2401.14973v1
- Date: Fri, 26 Jan 2024 16:06:01 GMT
- ステータス: 処理完了
- システム内更新日: 2024-01-29 14:40:07.650084
- Title: Discovering group dynamics in synchronous time series via hierarchical
recurrent switching-state models
- Title(参考訳): 階層的再帰的スイッチング状態モデルによる同期時系列群ダイナミクスの発見
- Authors: Michael Wojnowicz, Preetish Rath, Eric Miller, Jeffrey Miller,
Clifford Hancock, Meghan O'Donovan, Seth Elkin-Frankston, Thaddeus Brunye,
and Michael C. Hughes
- Abstract要約: 同じ期間に相互作用する複数のエンティティから生じる時系列の集合をモデル化する。
近年,個々の時系列のモデル化に焦点を絞った研究は,集合的なシステムレベルの振る舞いが個々の実体の軌跡に影響を及ぼすという,我々の意図した応用には不十分である。
我々は、潜在エンティティレベルチェーンを駆動する潜在システムレベルの離散状態チェーンを使用し、各観測時系列のダイナミクスを制御します。
- 参考スコア(独自算出の注目度): 3.5902825399592193
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We seek to model a collection of time series arising from multiple entities
interacting over the same time period. Recent work focused on modeling
individual time series is inadequate for our intended applications, where
collective system-level behavior influences the trajectories of individual
entities. To address such problems, we present a new hierarchical
switching-state model that can be trained in an unsupervised fashion to
simultaneously explain both system-level and individual-level dynamics. We
employ a latent system-level discrete state Markov chain that drives latent
entity-level chains which in turn govern the dynamics of each observed time
series. Feedback from the observations to the chains at both the entity and
system levels improves flexibility via context-dependent state transitions. Our
hierarchical switching recurrent dynamical models can be learned via
closed-form variational coordinate ascent updates to all latent chains that
scale linearly in the number of individual time series. This is asymptotically
no more costly than fitting separate models for each entity. Experiments on
synthetic and real datasets show that our model can produce better forecasts of
future entity behavior than existing methods. Moreover, the availability of
latent state chains at both the entity and system level enables interpretation
of group dynamics.
- Abstract(参考訳): 同じ期間に複数のエンティティが相互作用して発生する時系列の集まりをモデル化することを目指す。
近年,個々の時系列のモデル化に焦点を絞った研究は,集合的なシステムレベルの振る舞いが個々の実体の軌跡に影響を及ぼすようなアプリケーションには不十分である。
このような問題に対処するために,システムレベルと個別レベルの両方のダイナミクスを同時に説明するために,教師なしでトレーニング可能な階層型スイッチング状態モデルを提案する。
我々は、潜在エンティティレベルのチェーンを駆動する潜在システムレベルの離散状態マルコフチェーンを採用し、各観測された時系列のダイナミクスを制御している。
エンティティとシステムレベルの両方のチェーンに対する観察からのフィードバックは、コンテキスト依存の状態遷移を通じて柔軟性を向上させる。
我々の階層的スイッチングリカレント力学モデルは、個々の時系列数で線形にスケールする全ての潜在鎖に対する閉形式変動座標昇華更新によって学習することができる。
これは、各エンティティに別々のモデルを適合させるよりも、漸近的にコストがかかる。
合成および実データセットの実験により、我々のモデルは既存の手法よりも将来的な実体行動の予測をより良くできることが示された。
さらに、エンティティとシステムレベルでの潜在状態チェーンの可用性により、グループダイナミクスの解釈が可能になる。
関連論文リスト
- Multi-Head Self-Attending Neural Tucker Factorization [5.734615417239977]
本稿では,高次元および不完全(HDI)テンソルの学習表現に適したニューラルネットワークに基づくテンソル分解手法を提案する。
提案したMSNTucFモデルでは,観測結果の欠落を推定する上で,最先端のベンチマークモデルと比較して優れた性能を示す。
論文 参考訳(メタデータ) (2025-01-16T13:04:15Z) - Dynamic Post-Hoc Neural Ensemblers [55.15643209328513]
本研究では,ニューラルネットワークをアンサンブル手法として活用することを検討する。
低多様性のアンサンブルを学習するリスクを動機として,ベースモデル予測をランダムにドロップすることでモデルの正規化を提案する。
このアプローチはアンサンブル内の多様性を低くし、オーバーフィッティングを減らし、一般化能力を向上させる。
論文 参考訳(メタデータ) (2024-10-06T15:25:39Z) - Neural Persistence Dynamics [8.197801260302642]
時間発展する点雲のトポロジにおける力学を学習する問題を考察する。
提案したモデル - $textitNeural Persistence Dynamics$ - は、パラメータ回帰タスクの多種多様なセットで最先端のパフォーマンスを大幅に上回る。
論文 参考訳(メタデータ) (2024-05-24T17:20:18Z) - Decomposed Linear Dynamical Systems (dLDS) for learning the latent
components of neural dynamics [6.829711787905569]
本稿では,時系列データの非定常および非線形の複雑なダイナミクスを表現した新しい分解力学系モデルを提案する。
我々のモデルは辞書学習によって訓練され、最近の結果を利用してスパースベクトルを時間とともに追跡する。
連続時間と離散時間の両方の指導例において、我々のモデルは元のシステムによく近似できることを示した。
論文 参考訳(メタデータ) (2022-06-07T02:25:38Z) - Variational Predictive Routing with Nested Subjective Timescales [1.6114012813668934]
本稿では,時間的階層に潜む映像の特徴を整理するニューラル推論システムである変動予測ルーティング(PRV)を提案する。
VPRはイベント境界を検出し、時間的特徴を分散させ、データの動的階層に適応し、未来の正確な時間に依存しないロールアウトを生成することができることを示す。
論文 参考訳(メタデータ) (2021-10-21T16:12:59Z) - TCL: Transformer-based Dynamic Graph Modelling via Contrastive Learning [87.38675639186405]
我々は,動的に進化するグラフを連続的に扱う,TCLと呼ばれる新しいグラフニューラルネットワークアプローチを提案する。
我々の知る限りでは、これは動的グラフ上の表現学習にコントラスト学習を適用する最初の試みである。
論文 参考訳(メタデータ) (2021-05-17T15:33:25Z) - Learning Temporal Dynamics from Cycles in Narrated Video [85.89096034281694]
時が経つにつれて世界がどのように変化するかをモデル化する学習問題に対する自己監督型ソリューションを提案します。
私たちのモデルは、前方および後方の時間を予測するためにモダリティに依存しない関数を学習します。
将来的な動作の予測や画像の時間的順序付けなど,様々なタスクに対して,学習されたダイナミクスモデルを適用する。
論文 参考訳(メタデータ) (2021-01-07T02:41:32Z) - Continuous-in-Depth Neural Networks [107.47887213490134]
まず最初に、このリッチな意味では、ResNetsは意味のある動的でないことを示します。
次に、ニューラルネットワークモデルが連続力学系を表現することを実証する。
ResNetアーキテクチャの詳細な一般化としてContinuousNetを紹介します。
論文 参考訳(メタデータ) (2020-08-05T22:54:09Z) - S2RMs: Spatially Structured Recurrent Modules [105.0377129434636]
モジュール構造とテンポラル構造の両方を同時に活用できる動的構造を利用するための一歩を踏み出します。
我々のモデルは利用可能なビューの数に対して堅牢であり、追加のトレーニングなしで新しいタスクに一般化できる。
論文 参考訳(メタデータ) (2020-07-13T17:44:30Z) - Context-aware Dynamics Model for Generalization in Model-Based
Reinforcement Learning [124.9856253431878]
グローバルなダイナミクスモデルを学習するタスクを,(a)ローカルなダイナミクスをキャプチャするコンテキスト潜在ベクトルを学習し,(b)次に条件付き状態を予測するという2つの段階に分割する。
本研究では,コンテキスト潜在ベクトルに動的情報をエンコードするために,コンテキスト潜在ベクトルを前方と後方の両方のダイナミクスを予測するのに役立つような新しい損失関数を導入する。
提案手法は,既存のRL方式と比較して,様々なシミュレーションロボットや制御タスクの一般化能力に優れる。
論文 参考訳(メタデータ) (2020-05-14T08:10:54Z) - Relational State-Space Model for Stochastic Multi-Object Systems [24.234120525358456]
本稿では、逐次階層型潜在変数モデルであるリレーショナル状態空間モデル(R-SSM)を紹介する。
R-SSMはグラフニューラルネットワーク(GNN)を用いて、複数の相関オブジェクトの結合状態遷移をシミュレートする。
R-SSMの実用性は、合成および実時間時系列データセットで実証的に評価される。
論文 参考訳(メタデータ) (2020-01-13T03:45:21Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。