論文の概要: Learning Successor Representations with Distributed Hebbian Temporal
Memory
- arxiv url: http://arxiv.org/abs/2310.13391v1
- Date: Fri, 20 Oct 2023 10:03:14 GMT
- ステータス: 処理完了
- システム内更新日: 2023-10-23 23:25:19.387578
- Title: Learning Successor Representations with Distributed Hebbian Temporal
Memory
- Title(参考訳): 分散ヘビー時間記憶を用いた学習後継表現
- Authors: Evgenii Dzhivelikian, Petr Kuderov and Aleksandr I. Panov
- Abstract要約: 本稿では,不確実性のある意思決定におけるオンライン隠れ表現学習の課題に対処する新しいアプローチを提案する。
提案アルゴリズムは因子グラフ形式と多成分ニューロンモデルに基づく分散Hebbian Temporal Memory (DHTM) である。
- 参考スコア(独自算出の注目度): 49.1574468325115
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: This paper presents a novel approach to address the challenge of online
hidden representation learning for decision-making under uncertainty in
non-stationary, partially observable environments. The proposed algorithm,
Distributed Hebbian Temporal Memory (DHTM), is based on factor graph formalism
and a multicomponent neuron model. DHTM aims to capture sequential data
relationships and make cumulative predictions about future observations,
forming Successor Representation (SR). Inspired by neurophysiological models of
the neocortex, the algorithm utilizes distributed representations, sparse
transition matrices, and local Hebbian-like learning rules to overcome the
instability and slow learning process of traditional temporal memory algorithms
like RNN and HMM. Experimental results demonstrate that DHTM outperforms
classical LSTM and performs comparably to more advanced RNN-like algorithms,
speeding up Temporal Difference learning for SR in changing environments.
Additionally, we compare the SRs produced by DHTM to another biologically
inspired HMM-like algorithm, CSCG. Our findings suggest that DHTM is a
promising approach for addressing the challenges of online hidden
representation learning in dynamic environments.
- Abstract(参考訳): 本稿では,非定常,部分可観測環境における不確実性下での意思決定におけるオンライン隠れ表現学習の課題に対処するための新しい手法を提案する。
提案アルゴリズムは因子グラフ形式と多成分ニューロンモデルに基づく分散Hebbian Temporal Memory (DHTM) である。
dhtmはシーケンシャルなデータ関係を捉え、将来の観測に関する累積予測を行い、後継表現(sr)を形成することを目的としている。
新皮質の神経生理学的モデルにインスパイアされたこのアルゴリズムは、分散表現、スパース遷移行列、および局所ヘビアンのような学習規則を利用して、RNNやHMMのような伝統的な時間記憶アルゴリズムの不安定性と遅い学習プロセスを克服する。
実験により、DHTMは従来のLSTMよりも優れ、より高度なRNNのようなアルゴリズムと互換性があり、環境変化におけるSRの時間差学習を高速化することが示された。
さらに、DHTMによって生成されたSRと、別の生物学的にインスパイアされたHMMライクなアルゴリズムCSCGを比較した。
この結果から,DHTMは動的環境におけるオンライン隠れ表現学習の課題に対処するための有望なアプローチであることが示唆された。
関連論文リスト
- Generative forecasting of brain activity enhances Alzheimer's classification and interpretation [16.09844316281377]
静止状態機能型磁気共鳴イメージング(rs-fMRI)は、神経活動を監視する非侵襲的な方法を提供する。
深層学習はこれらの表現を捉えることを約束している。
本研究では,データ拡張の一形態として,rs-fMRIから派生した独立成分ネットワークの時系列予測に着目した。
論文 参考訳(メタデータ) (2024-10-30T23:51:31Z) - Trajectory Flow Matching with Applications to Clinical Time Series Modeling [77.58277281319253]
Trajectory Flow Matching (TFM) は、シミュレーションのない方法でニューラルSDEを訓練し、ダイナミックスを通してバックプロパゲーションをバイパスする。
絶対的性能と不確実性予測の観点から,3つの臨床時系列データセットの性能向上を実証した。
論文 参考訳(メタデータ) (2024-10-28T15:54:50Z) - GRSN: Gated Recurrent Spiking Neurons for POMDPs and MARL [28.948871773551854]
スパイキングニューラルネットワーク(SNN)は、エネルギー効率と高速推論能力のため、様々な分野に広く応用されている。
現在のスパイキング強化学習(SRL)アルゴリズムでは、複数の時間ステップのシミュレーション結果がRLの単一ステップ決定にしか対応しない。
本稿では、スパイキングニューロンの単一ステップ更新を利用して、RLの歴史的状態情報を蓄積する新しい時間的アライメントパラダイム(TAP)を提案する。
論文 参考訳(メタデータ) (2024-04-24T02:20:50Z) - Spatial-Temporal DAG Convolutional Networks for End-to-End Joint
Effective Connectivity Learning and Resting-State fMRI Classification [42.82118108887965]
総合的な脳コネクトームの構築は、静止状態fMRI(rs-fMRI)解析において基本的な重要性が証明されている。
我々は脳ネットワークを有向非循環グラフ(DAG)としてモデル化し、脳領域間の直接因果関係を発見する。
本研究では,効率的な接続性を推定し,rs-fMRI時系列を分類するために,時空間DAG畳み込みネットワーク(ST-DAGCN)を提案する。
論文 参考訳(メタデータ) (2023-12-16T04:31:51Z) - Axonal Delay As a Short-Term Memory for Feed Forward Deep Spiking Neural
Networks [3.985532502580783]
近年の研究では、学習過程において神経細胞の時間遅延が重要な役割を担っていることが判明している。
スパイクの正確なタイミングを設定することは、SNNにおける時間情報の伝達過程を理解し改善するための有望な方向である。
本稿では,教師付き学習に時間遅延を統合することの有効性を検証するとともに,短期記憶による軸索遅延を変調するモジュールを提案する。
論文 参考訳(メタデータ) (2022-04-20T16:56:42Z) - Predicting the temporal dynamics of turbulent channels through deep
learning [0.0]
最小乱流チャネル流の時間的進化を再現するニューラルネットワークの能力を評価することを目的としている。
長期記憶(LSTM)ネットワークとクープマンベースのフレームワーク(KNF)は、最小チャネルフローモードの時間ダイナミクスを予測するために訓練される。
論文 参考訳(メタデータ) (2022-03-02T09:31:03Z) - Convolutional generative adversarial imputation networks for
spatio-temporal missing data in storm surge simulations [86.5302150777089]
GAN(Generative Adversarial Imputation Nets)とGANベースの技術は、教師なし機械学習手法として注目されている。
提案手法を Con Conval Generative Adversarial Imputation Nets (Conv-GAIN) と呼ぶ。
論文 参考訳(メタデータ) (2021-11-03T03:50:48Z) - Deep Bayesian Active Learning for Accelerating Stochastic Simulation [74.58219903138301]
Interactive Neural Process(INP)は、シミュレーションとアクティブな学習アプローチのためのディープラーニングフレームワークである。
能動的学習のために,NPベースモデルの潜時空間で計算された新しい取得関数Latent Information Gain (LIG)を提案する。
その結果,STNPは学習環境のベースラインを上回り,LIGは能動学習の最先端を達成していることがわかった。
論文 参考訳(メタデータ) (2021-06-05T01:31:51Z) - Influence Estimation and Maximization via Neural Mean-Field Dynamics [60.91291234832546]
本稿では,ニューラル平均場(NMF)ダイナミクスを用いた新しい学習フレームワークを提案する。
我々のフレームワークは拡散ネットワークの構造とノード感染確率の進化を同時に学習することができる。
論文 参考訳(メタデータ) (2021-06-03T00:02:05Z) - Rectified Linear Postsynaptic Potential Function for Backpropagation in
Deep Spiking Neural Networks [55.0627904986664]
スパイキングニューラルネットワーク(SNN)は、時間的スパイクパターンを用いて情報を表現し、伝達する。
本稿では,情報符号化,シナプス可塑性,意思決定におけるスパイクタイミングダイナミクスの寄与について検討し,将来のDeepSNNやニューロモルフィックハードウェアシステムの設計への新たな視点を提供する。
論文 参考訳(メタデータ) (2020-03-26T11:13:07Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。