論文の概要: Episodic memory governs choices: An RNN-based reinforcement learning
model for decision-making task
- arxiv url: http://arxiv.org/abs/2103.03679v1
- Date: Sun, 24 Jan 2021 04:33:07 GMT
- ステータス: 処理完了
- システム内更新日: 2021-03-16 09:09:16.873109
- Title: Episodic memory governs choices: An RNN-based reinforcement learning
model for decision-making task
- Title(参考訳): エピソード記憶は選択を支配する:意思決定タスクのためのRNNベースの強化学習モデル
- Authors: Xiaohan Zhang, Lu Liu, Guodong Long, Jing Jiang, Shenquan Liu
- Abstract要約: RNNベースのActor-Criticフレームワークを開発し、サルの意思決定タスクに類似した2つのタスクを解決します。
私たちは、神経科学のオープンな質問を探ろうとしています:海馬のエピソード記憶は、最終的に将来の決定を支配するために選択されるべきです。
- 参考スコア(独自算出の注目度): 24.96447960548042
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Typical methods to study cognitive function are to record the electrical
activities of animal neurons during the training of animals performing
behavioral tasks. A key problem is that they fail to record all the relevant
neurons in the animal brain. To alleviate this problem, we develop an RNN-based
Actor-Critic framework, which is trained through reinforcement learning (RL) to
solve two tasks analogous to the monkeys' decision-making tasks. The trained
model is capable of reproducing some features of neural activities recorded
from animal brain, or some behavior properties exhibited in animal experiments,
suggesting that it can serve as a computational platform to explore other
cognitive functions. Furthermore, we conduct behavioral experiments on our
framework, trying to explore an open question in neuroscience: which episodic
memory in the hippocampus should be selected to ultimately govern future
decisions. We find that the retrieval of salient events sampled from episodic
memories can effectively shorten deliberation time than common events in the
decision-making process. The results indicate that salient events stored in the
hippocampus could be prioritized to propagate reward information, and thus
allow decision-makers to learn a strategy faster.
- Abstract(参考訳): 認知機能を研究する典型的な方法は、行動タスクを行う動物の訓練中の動物のニューロンの電気活動を記録することである。
重要な問題は、彼らは動物の脳内のすべての関連ニューロンを記録できないことです。
この問題を解決するために,強化学習(rl)によって学習し,サルの意思決定タスクに類似した2つの課題を解決するrnnベースのアクタ-クリティックフレームワークを開発した。
訓練されたモデルは、動物の脳から記録された神経活動のいくつかの特徴、または動物実験で示された行動特性を再現することができ、他の認知機能を調べるための計算プラットフォームとして機能することを示唆している。
さらに、我々は神経科学におけるオープンな疑問を探究するために、行動実験を行い、海馬のエピソディクス記憶を選択すべきかどうかを究極的に決定する。
エピソード記憶から抽出された有意な事象の検索は、意思決定プロセスにおける一般的な出来事よりも審議時間を効果的に短縮できることが判明した。
以上の結果から,海馬に蓄積された有能なイベントを優先して報奨情報を伝達し,意思決定者がより早く戦略を学習できることが示唆された。
関連論文リスト
- Learnable latent embeddings for joint behavioral and neural analysis [3.6062449190184136]
CEBRAは、空間のマッピング、複雑なキネマティックな特徴の発見、視覚野からの自然映画の高速かつ高精度な復号化に利用できることを示す。
我々は、その精度を検証し、カルシウムと電気生理学の両方のデータセット、感覚と運動のタスク、そして種全体にわたる単純または複雑な振る舞いにその有用性を実証する。
論文 参考訳(メタデータ) (2022-04-01T19:19:33Z) - CogNGen: Constructing the Kernel of a Hyperdimensional Predictive
Processing Cognitive Architecture [79.07468367923619]
神経生物学的に妥当な2つの計算モデルを組み合わせた新しい認知アーキテクチャを提案する。
我々は、現代の機械学習技術の力を持つ認知アーキテクチャを開発することを目指している。
論文 参考訳(メタデータ) (2022-03-31T04:44:28Z) - Learning Bayesian Sparse Networks with Full Experience Replay for
Continual Learning [54.7584721943286]
継続学習(CL)手法は、機械学習モデルが、以前にマスターされたタスクを壊滅的に忘れることなく、新しいタスクを学習できるようにすることを目的としている。
既存のCLアプローチは、しばしば、事前に確認されたサンプルのバッファを保持し、知識蒸留を行い、あるいはこの目標に向けて正規化技術を使用する。
我々は,現在および過去のタスクを任意の段階で学習するために,スパースニューロンのみを活性化し,選択することを提案する。
論文 参考訳(メタデータ) (2022-02-21T13:25:03Z) - Reducing Catastrophic Forgetting in Self Organizing Maps with
Internally-Induced Generative Replay [67.50637511633212]
生涯学習エージェントは、パターン知覚データの無限のストリームから継続的に学習することができる。
適応するエージェントを構築する上での歴史的難しさの1つは、ニューラルネットワークが新しいサンプルから学ぶ際に、以前取得した知識を維持するのに苦労していることである。
この問題は破滅的な忘れ(干渉)と呼ばれ、今日の機械学習の領域では未解決の問題のままである。
論文 参考訳(メタデータ) (2021-12-09T07:11:14Z) - Overcoming the Domain Gap in Neural Action Representations [60.47807856873544]
3Dポーズデータは、手動で介入することなく、マルチビュービデオシーケンスから確実に抽出できる。
本稿では,ニューラルアクション表現の符号化を,ニューラルアクションと行動拡張のセットと共に導くために使用することを提案する。
ドメインギャップを減らすために、トレーニングの間、同様の行動をしているように見える動物間で神経と行動のデータを取り替える。
論文 参考訳(メタデータ) (2021-12-02T12:45:46Z) - Overcoming the Domain Gap in Contrastive Learning of Neural Action
Representations [60.47807856873544]
神経科学の基本的な目標は、神経活動と行動の関係を理解することである。
我々は,ハエが自然に生み出す行動からなる新しいマルチモーダルデータセットを作成した。
このデータセットと新しい拡張セットは、神経科学における自己教師あり学習手法の適用を加速することを約束します。
論文 参考訳(メタデータ) (2021-11-29T15:27:51Z) - Neuronal Learning Analysis using Cycle-Consistent Adversarial Networks [4.874780144224057]
我々は、-CycleGANと呼ばれる深層生成モデルを用いて、前学習と後学習の神経活動の間の未知のマッピングを学習する。
我々は,カルシウム蛍光信号を前処理し,訓練し,評価するためのエンドツーエンドパイプラインを開発し,その結果の深層学習モデルを解釈する手法を開発した。
論文 参考訳(メタデータ) (2021-11-25T13:24:19Z) - Cortico-cerebellar networks as decoupling neural interfaces [1.1879716317856945]
脳は信用代入問題を著しく解決する。
ニューラルネットワークにまたがってクレジットを割り当てるには、原則として、特定のニューラルネットワーク計算が完了するのを待つ必要がある。
ディープラーニングの手法は、フォワードとフィードバックのフェーズの両方で、同様のロックの制約に悩まされる。
そこで本研究では、大脳皮質がDNIと同様のロック問題を解くのに役立つ特化脳野である小脳を提案する。
論文 参考訳(メタデータ) (2021-10-21T22:02:38Z) - Backprop-Free Reinforcement Learning with Active Neural Generative
Coding [84.11376568625353]
動的環境におけるエラー(バックプロップ)のバックプロパゲーションを伴わない行動駆動型生成モデルの学習のための計算フレームワークを提案する。
我々は、まばらな報酬でも機能するインテリジェントエージェントを開発し、推論として計画の認知理論からインスピレーションを得ている。
我々のエージェントの堅牢な性能は、神経推論と学習のためのバックプロップフリーアプローチがゴール指向の行動を促進するという有望な証拠を提供する。
論文 参考訳(メタデータ) (2021-07-10T19:02:27Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。