論文の概要: Hidden State Approximation in Recurrent Neural Networks Using Continuous
Particle Filtering
- arxiv url: http://arxiv.org/abs/2212.09008v1
- Date: Sun, 18 Dec 2022 04:31:45 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-20 15:07:37.295829
- Title: Hidden State Approximation in Recurrent Neural Networks Using Continuous
Particle Filtering
- Title(参考訳): 連続粒子フィルタを用いた繰り返しニューラルネットワークにおける隠れ状態近似
- Authors: Dexun Li
- Abstract要約: 過去のデータを使って将来の出来事を予測することは、株価の予測やロボットのローカライゼーションなど、現実世界に多くの応用がある。
本稿では, 粒子を用いて潜伏状態の分布を近似し, より複雑な状態に拡張する方法を示す。
提案した連続微分可能スキームでは,ベイズ則に従って付加価値情報を適応的に抽出し,潜時状態を更新することができる。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Using historical data to predict future events has many applications in the
real world, such as stock price prediction; the robot localization. In the past
decades, the Convolutional long short-term memory (LSTM) networks have achieved
extraordinary success with sequential data in the related field. However,
traditional recurrent neural networks (RNNs) keep the hidden states in a
deterministic way. In this paper, we use the particles to approximate the
distribution of the latent state and show how it can extend into a more complex
form, i.e., the Encoder-Decoder mechanism. With the proposed continuous
differentiable scheme, our model is capable of adaptively extracting valuable
information and updating the latent state according to the Bayes rule. Our
empirical studies demonstrate the effectiveness of our method in the prediction
tasks.
- Abstract(参考訳): 過去のデータを使用して将来のイベントを予測することは、株価予測やロボットのローカライゼーションなど、現実世界で多くの応用がある。
過去数十年間、畳み込み長短期メモリ(LSTM)ネットワークは、関連する分野におけるシーケンシャルデータで驚くべき成功を収めてきた。
しかし、従来のリカレントニューラルネットワーク(RNN)は、隠れた状態を決定論的に維持する。
本稿では,粒子を用いて潜在状態の分布を近似し,より複雑な形式,すなわちエンコーダ・デコーダ機構にどのように拡張できるかを示す。
提案した連続微分可能スキームでは,ベイズ則に従って付加価値情報を適応的に抽出し,潜時状態を更新することができる。
本研究は,予測タスクにおける提案手法の有効性を実証する。
関連論文リスト
- Temporal Convolution Derived Multi-Layered Reservoir Computing [5.261277318790788]
貯水池の状態空間への入力データの新たなマッピングを提案する。
ニューラルネットワークの並列化性,深さ,予測能力を向上する2つの新しいネットワークアーキテクチャにこの手法を組み込む。
カオス時系列では、Echo State Networksと比較して最大85.45%、Gated Recurrent Unitsと比較して90.72%のエラー削減が観察される。
論文 参考訳(メタデータ) (2024-07-09T11:40:46Z) - GRANP: A Graph Recurrent Attentive Neural Process Model for Vehicle Trajectory Prediction [3.031375888004876]
車両軌道予測のためのGRANP(Graph Recurrent Attentive Neural Process)という新しいモデルを提案する。
GRANPには、決定論的パスと遅延パスを持つエンコーダと、予測のためのデコーダが含まれている。
我々は,GRANPが最先端の結果を達成し,不確実性を効率的に定量化できることを示す。
論文 参考訳(メタデータ) (2024-04-09T05:51:40Z) - State Sequences Prediction via Fourier Transform for Representation
Learning [111.82376793413746]
本研究では,表現表現を効率よく学習する新しい方法である,フーリエ変換(SPF)による状態列予測を提案する。
本研究では,状態系列における構造情報の存在を理論的に解析する。
実験により,提案手法はサンプル効率と性能の両面で,最先端のアルゴリズムよりも優れていることが示された。
論文 参考訳(メタデータ) (2023-10-24T14:47:02Z) - Deep Neural Networks Tend To Extrapolate Predictably [51.303814412294514]
ニューラルネットワークの予測は、アウト・オブ・ディストリビューション(OOD)入力に直面した場合、予測不可能で過信される傾向がある。
我々は、入力データがOODになるにつれて、ニューラルネットワークの予測が一定値に向かう傾向があることを観察する。
我々は、OOD入力の存在下でリスクに敏感な意思決定を可能にするために、私たちの洞察を実際に活用する方法を示します。
論文 参考訳(メタデータ) (2023-10-02T03:25:32Z) - Autoregressive GNN-ODE GRU Model for Network Dynamics [7.272158647379444]
本稿では,AGOG(Autoregressive GNN-ODE GRU Model)を提案する。
我々のモデルは複雑なシステムの連続的動的過程を正確に捉え、最小限の誤差でノード状態の予測を行うことができる。
論文 参考訳(メタデータ) (2022-11-19T05:43:10Z) - Interpretable Self-Aware Neural Networks for Robust Trajectory
Prediction [50.79827516897913]
本稿では,意味概念間で不確実性を分散する軌道予測のための解釈可能なパラダイムを提案する。
実世界の自動運転データに対する我々のアプローチを検証し、最先端のベースラインよりも優れた性能を示す。
論文 参考訳(メタデータ) (2022-11-16T06:28:20Z) - Stochastic Trajectory Prediction via Motion Indeterminacy Diffusion [88.45326906116165]
運動不確定性拡散(MID)の逆過程として軌道予測タスクを定式化する新しい枠組みを提案する。
我々は,履歴行動情報と社会的相互作用を状態埋め込みとしてエンコードし,トランジトリの時間的依存性を捉えるためにトランスフォーマーに基づく拡散モデルを考案する。
スタンフォード・ドローンやETH/UCYデータセットなど,人間の軌道予測ベンチマーク実験により,本手法の優位性を実証した。
論文 参考訳(メタデータ) (2022-03-25T16:59:08Z) - Recurrent Neural Networks for Learning Long-term Temporal Dependencies
with Reanalysis of Time Scale Representation [16.32068729107421]
時間的表現としての忘れ門の解釈は、状態に対する損失の勾配が時間とともに指数関数的に減少するときに有効であると主張する。
本稿では,従来のモデルよりも長い時間スケールを表現できる新しいRNNの構築手法を提案する。
論文 参考訳(メタデータ) (2021-11-05T06:22:58Z) - Spatiotemporal convolutional network for time-series prediction and
causal inference [21.895413699349966]
時系列のマルチステップ予測を効率的に正確にレンダリングするために、ニューラルネットワークコンピューティングフレームワークi.N.N.を開発した。
このフレームワークは、人工知能(AI)や機械学習分野の実践的応用において大きな可能性を秘めている。
論文 参考訳(メタデータ) (2021-07-03T06:20:43Z) - DSDNet: Deep Structured self-Driving Network [92.9456652486422]
本稿では,1つのニューラルネットワークを用いて物体検出,動き予測,動き計画を行うDeep Structured Self-Driving Network (DSDNet)を提案する。
我々は,アクター間の相互作用を考慮し,社会的に一貫したマルチモーダル未来予測を生成する,深く構造化されたエネルギーベースモデルを開発する。
論文 参考訳(メタデータ) (2020-08-13T17:54:06Z) - Liquid Time-constant Networks [117.57116214802504]
本稿では,時間連続リカレントニューラルネットワークモデルについて紹介する。
暗黙の非線形性によって学習システムの力学を宣言する代わりに、線形一階力学系のネットワークを構築する。
これらのニューラルネットワークは安定かつ有界な振る舞いを示し、ニューラル常微分方程式の族の中で優れた表現性をもたらす。
論文 参考訳(メタデータ) (2020-06-08T09:53:35Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。