論文の概要: Learning Successor Features with Distributed Hebbian Temporal Memory
- arxiv url: http://arxiv.org/abs/2310.13391v3
- Date: Mon, 07 Oct 2024 17:27:21 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-10-08 18:00:51.766135
- Title: Learning Successor Features with Distributed Hebbian Temporal Memory
- Title(参考訳): 分散ヘビアン時間記憶を用いた継承関数の学習
- Authors: Evgenii Dzhivelikian, Petr Kuderov, Aleksandr I. Panov,
- Abstract要約: 本稿では,不確実性を考慮した意思決定におけるオンライン時間記憶学習の課題に対して,新しいアプローチを提案する。
提案アルゴリズムは因子グラフ形式と多成分ニューロンモデルに基づく分散Hebbian Temporal Memory (DHTM) である。
実験の結果,非定常データセットの場合,DHTMはLSTMと生物学的にインスパイアされたHMMライクなアルゴリズムCSCGより優れていた。
- 参考スコア(独自算出の注目度): 44.99833362998488
- License:
- Abstract: This paper presents a novel approach to address the challenge of online temporal memory learning for decision-making under uncertainty in non-stationary, partially observable environments. The proposed algorithm, Distributed Hebbian Temporal Memory (DHTM), is based on factor graph formalism and a multicomponent neuron model. DHTM aims to capture sequential data relationships and make cumulative predictions about future observations, forming Successor Features (SF). Inspired by neurophysiological models of the neocortex, the algorithm utilizes distributed representations, sparse transition matrices, and local Hebbian-like learning rules to overcome the instability and slow learning process of traditional temporal memory algorithms like RNN and HMM. Experimental results demonstrate that DHTM outperforms LSTM and a biologically inspired HMM-like algorithm, CSCG, in the case of non-stationary datasets. Our findings suggest that DHTM is a promising approach for addressing the challenges of online sequence learning and planning in dynamic environments.
- Abstract(参考訳): 本稿では,非定常部分観測環境における不確実性を考慮した意思決定におけるオンライン時間記憶学習の課題に対して,新しいアプローチを提案する。
提案アルゴリズムは因子グラフ形式と多成分ニューロンモデルに基づく分散Hebbian Temporal Memory (DHTM) である。
DHTMは、シーケンシャルなデータ関係を捉え、将来の観測について累積的な予測を行い、継承機能(SF)を形成することを目的としている。
新皮質の神経生理学的モデルにインスパイアされたこのアルゴリズムは、分散表現、スパース遷移行列、および局所ヘビアンのような学習規則を利用して、RNNやHMMのような伝統的な時間記憶アルゴリズムの不安定性と遅い学習プロセスを克服する。
実験の結果,非定常データセットの場合,DHTMはLSTMと生物学的にインスパイアされたHMMライクなアルゴリズムCSCGより優れていた。
この結果から,DHTMは動的環境におけるオンラインシーケンス学習と計画の課題に対処するための,有望なアプローチであることが示唆された。
関連論文リスト
- Generative forecasting of brain activity enhances Alzheimer's classification and interpretation [16.09844316281377]
静止状態機能型磁気共鳴イメージング(rs-fMRI)は、神経活動を監視する非侵襲的な方法を提供する。
深層学習はこれらの表現を捉えることを約束している。
本研究では,データ拡張の一形態として,rs-fMRIから派生した独立成分ネットワークの時系列予測に着目した。
論文 参考訳(メタデータ) (2024-10-30T23:51:31Z) - Trajectory Flow Matching with Applications to Clinical Time Series Modeling [77.58277281319253]
Trajectory Flow Matching (TFM) は、シミュレーションのない方法でニューラルSDEを訓練し、ダイナミックスを通してバックプロパゲーションをバイパスする。
絶対的性能と不確実性予測の観点から,3つの臨床時系列データセットの性能向上を実証した。
論文 参考訳(メタデータ) (2024-10-28T15:54:50Z) - GRSN: Gated Recurrent Spiking Neurons for POMDPs and MARL [28.948871773551854]
スパイキングニューラルネットワーク(SNN)は、エネルギー効率と高速推論能力のため、様々な分野に広く応用されている。
現在のスパイキング強化学習(SRL)アルゴリズムでは、複数の時間ステップのシミュレーション結果がRLの単一ステップ決定にしか対応しない。
本稿では、スパイキングニューロンの単一ステップ更新を利用して、RLの歴史的状態情報を蓄積する新しい時間的アライメントパラダイム(TAP)を提案する。
論文 参考訳(メタデータ) (2024-04-24T02:20:50Z) - Spatial-Temporal DAG Convolutional Networks for End-to-End Joint
Effective Connectivity Learning and Resting-State fMRI Classification [42.82118108887965]
総合的な脳コネクトームの構築は、静止状態fMRI(rs-fMRI)解析において基本的な重要性が証明されている。
我々は脳ネットワークを有向非循環グラフ(DAG)としてモデル化し、脳領域間の直接因果関係を発見する。
本研究では,効率的な接続性を推定し,rs-fMRI時系列を分類するために,時空間DAG畳み込みネットワーク(ST-DAGCN)を提案する。
論文 参考訳(メタデータ) (2023-12-16T04:31:51Z) - Axonal Delay As a Short-Term Memory for Feed Forward Deep Spiking Neural
Networks [3.985532502580783]
近年の研究では、学習過程において神経細胞の時間遅延が重要な役割を担っていることが判明している。
スパイクの正確なタイミングを設定することは、SNNにおける時間情報の伝達過程を理解し改善するための有望な方向である。
本稿では,教師付き学習に時間遅延を統合することの有効性を検証するとともに,短期記憶による軸索遅延を変調するモジュールを提案する。
論文 参考訳(メタデータ) (2022-04-20T16:56:42Z) - Predicting the temporal dynamics of turbulent channels through deep
learning [0.0]
最小乱流チャネル流の時間的進化を再現するニューラルネットワークの能力を評価することを目的としている。
長期記憶(LSTM)ネットワークとクープマンベースのフレームワーク(KNF)は、最小チャネルフローモードの時間ダイナミクスを予測するために訓練される。
論文 参考訳(メタデータ) (2022-03-02T09:31:03Z) - Convolutional generative adversarial imputation networks for
spatio-temporal missing data in storm surge simulations [86.5302150777089]
GAN(Generative Adversarial Imputation Nets)とGANベースの技術は、教師なし機械学習手法として注目されている。
提案手法を Con Conval Generative Adversarial Imputation Nets (Conv-GAIN) と呼ぶ。
論文 参考訳(メタデータ) (2021-11-03T03:50:48Z) - Deep Bayesian Active Learning for Accelerating Stochastic Simulation [74.58219903138301]
Interactive Neural Process(INP)は、シミュレーションとアクティブな学習アプローチのためのディープラーニングフレームワークである。
能動的学習のために,NPベースモデルの潜時空間で計算された新しい取得関数Latent Information Gain (LIG)を提案する。
その結果,STNPは学習環境のベースラインを上回り,LIGは能動学習の最先端を達成していることがわかった。
論文 参考訳(メタデータ) (2021-06-05T01:31:51Z) - Influence Estimation and Maximization via Neural Mean-Field Dynamics [60.91291234832546]
本稿では,ニューラル平均場(NMF)ダイナミクスを用いた新しい学習フレームワークを提案する。
我々のフレームワークは拡散ネットワークの構造とノード感染確率の進化を同時に学習することができる。
論文 参考訳(メタデータ) (2021-06-03T00:02:05Z) - Rectified Linear Postsynaptic Potential Function for Backpropagation in
Deep Spiking Neural Networks [55.0627904986664]
スパイキングニューラルネットワーク(SNN)は、時間的スパイクパターンを用いて情報を表現し、伝達する。
本稿では,情報符号化,シナプス可塑性,意思決定におけるスパイクタイミングダイナミクスの寄与について検討し,将来のDeepSNNやニューロモルフィックハードウェアシステムの設計への新たな視点を提供する。
論文 参考訳(メタデータ) (2020-03-26T11:13:07Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。