論文の概要: GATE: Adaptive Learning with Working Memory by Information Gating in Multi-lamellar Hippocampal Formation
- arxiv url: http://arxiv.org/abs/2501.12615v1
- Date: Wed, 22 Jan 2025 03:41:35 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-01-23 13:28:49.676702
- Title: GATE: Adaptive Learning with Working Memory by Information Gating in Multi-lamellar Hippocampal Formation
- Title(参考訳): GATE:多層海馬形成における情報ゲーティングによる作業記憶による適応学習
- Authors: Yuechen Liu, Zishun Wang, Chen Qiao, Zongben Xu,
- Abstract要約: 海馬形成(HF)は、様々な環境に迅速に適応し、柔軟なワーキングメモリ(WM)を構築することができる
一般化とWMに関するHFのメカニズムを反映するために,一般化・連想一時(GATE)モデルを提案する。
GATEは、DVアーキテクチャを3Dでデプロイし、外部駆動情報から内部表現を階層的に構築することを学ぶ。
- 参考スコア(独自算出の注目度): 16.427651727482587
- License:
- Abstract: Hippocampal formation (HF) can rapidly adapt to varied environments and build flexible working memory (WM). To mirror the HF's mechanism on generalization and WM, we propose a model named Generalization and Associative Temporary Encoding (GATE), which deploys a 3-D multi-lamellar dorsoventral (DV) architecture, and learns to build up internally representation from externally driven information layer-wisely. In each lamella, regions of HF: EC3-CA1-EC5-EC3 forms a re-entrant loop that discriminately maintains information by EC3 persistent activity, and selectively readouts the retained information by CA1 neurons. CA3 and EC5 further provides gating function that controls these processes. After learning complex WM tasks, GATE forms neuron representations that align with experimental records, including splitter, lap, evidence, trace, delay-active cells, as well as conventional place cells. Crucially, DV architecture in GATE also captures information, range from detailed to abstract, which enables a rapid generalization ability when cue, environment or task changes, with learned representations inherited. GATE promises a viable framework for understanding the HF's flexible memory mechanisms and for progressively developing brain-inspired intelligent systems.
- Abstract(参考訳): 海馬形成(HF)は、様々な環境に迅速に適応し、柔軟なワーキングメモリ(WM)を構築することができる。
一般化とWMに関するHFのメカニズムを反映するために,3次元マルチラメラ・ドルソベンタラル(DV)アーキテクチャをデプロイし,外部駆動情報から内部表現を構築することを学ぶ,一般化・連想時間符号化(GATE)モデルを提案する。
各ラメラでは、HF:EC3-CA1-EC5-EC3の領域が再入射ループを形成し、EC3持続活動によって情報を識別し、CA1ニューロンによって保持された情報を選択的に読み取る。
CA3とEC5はさらにこれらのプロセスを制御するゲーティング機能を提供している。
複雑なWMタスクを学習した後、GATEは、従来の場所細胞と同様に、スプリッター、ラップ、エビデンス、トレース、遅延活性細胞などの実験記録と整合するニューロン表現を形成する。
重要な点として、GATEのDVアーキテクチャは、詳細な情報から抽象的な情報まで、学習された表現を継承することで、キューや環境やタスクの変更時に迅速な一般化を可能にする。
GATEは、HFのフレキシブルメモリメカニズムを理解し、脳にインスパイアされたインテリジェントなシステムを段階的に開発するための、実行可能なフレームワークを約束する。
関連論文リスト
- Predicting Infant Brain Connectivity with Federated Multi-Trajectory
GNNs using Scarce Data [54.55126643084341]
既存のディープラーニングソリューションには,3つの大きな制限がある。
我々はフェデレートグラフベースの多軌道進化ネットワークであるFedGmTE-Net++を紹介する。
フェデレーションの力を利用して、限られたデータセットを持つ多種多様な病院の地域学習を集約する。
論文 参考訳(メタデータ) (2024-01-01T10:20:01Z) - JGAT: a joint spatio-temporal graph attention model for brain decoding [8.844033583141039]
Joint kernel Graph Attention Network (JGAT)は、新しいマルチモーダル時間グラフアテンションネットワークフレームワークである。
ダイナミックな情報を保存しながら、機能的磁気共鳴画像(fMRI)と拡散重み画像(DWI)からのデータを統合する。
我々は4つの独立したデータセット上でJGATでブレインデコーディングタスクを行います。
論文 参考訳(メタデータ) (2023-06-03T02:45:03Z) - LMDA-Net:A lightweight multi-dimensional attention network for general
EEG-based brain-computer interface paradigms and interpretability [2.3945862743903916]
LMDA-Netと呼ばれる,軽量な多次元アテンションネットワークを提案する。
EEG信号用に設計された2つの新しいアテンションモジュールを組み込むことで、LMDA-Netは複数の次元の特徴を効果的に統合できる。
LMDA-Netは、分類精度とボラティリティの予測の観点から、他の代表的手法よりも優れている。
論文 参考訳(メタデータ) (2023-03-29T02:35:02Z) - ETLP: Event-based Three-factor Local Plasticity for online learning with
neuromorphic hardware [105.54048699217668]
イベントベース3要素局所塑性(ETLP)の計算複雑性に明らかな優位性を有する精度の競争性能を示す。
また, 局所的可塑性を用いた場合, スパイキングニューロンの閾値適応, 繰り返しトポロジーは, 時間的構造が豊富な時間的パターンを学習するために必要であることを示した。
論文 参考訳(メタデータ) (2023-01-19T19:45:42Z) - Neural Attentive Circuits [93.95502541529115]
我々は、NAC(Neural Attentive Circuits)と呼ばれる汎用的でモジュラーなニューラルアーキテクチャを導入する。
NACは、ドメイン知識を使わずに、ニューラルネットワークモジュールのパラメータ化と疎結合を学習する。
NACは推論時に8倍のスピードアップを達成するが、性能は3%以下である。
論文 参考訳(メタデータ) (2022-10-14T18:00:07Z) - Memory-Guided Semantic Learning Network for Temporal Sentence Grounding [55.31041933103645]
本稿では,TSGタスクにおいて稀に出現しないコンテンツを学習し,記憶するメモリ拡張ネットワークを提案する。
MGSL-Netは、クロスモーダル・インターアクション・モジュール、メモリ拡張モジュール、異種アテンション・モジュールの3つの主要な部分で構成されている。
論文 参考訳(メタデータ) (2022-01-03T02:32:06Z) - Temporal Memory Relation Network for Workflow Recognition from Surgical
Video [53.20825496640025]
本研究では, 長期および多スケールの時間パターンを関連づける, エンドツーエンドの時間メモリ関係ネットワーク (TMNet) を提案する。
我々はこのアプローチを2つのベンチマーク手術ビデオデータセットで広範囲に検証した。
論文 参考訳(メタデータ) (2021-03-30T13:20:26Z) - PredRNN: A Recurrent Neural Network for Spatiotemporal Predictive
Learning [109.84770951839289]
歴史的文脈からビジュアルダイナミクスを学習するための新しいリカレントネットワークであるPredRNNを紹介する。
本手法は,3つの標準データセット上で高い競争結果が得られることを示す。
論文 参考訳(メタデータ) (2021-03-17T08:28:30Z) - Integration of Leaky-Integrate-and-Fire-Neurons in Deep Learning
Architectures [0.0]
生物学的にインスパイアされたニューロンモデルが情報符号化の斬新で効率的な方法を提供することを示す。
LIF単位に対する簡単な更新ルールを微分方程式から導出した。
本手法をIRIS花のイメージデータセットに適用し,画像分類タスクにおけるLIFニューロンのトレーニングに使用することができることを示す。
論文 参考訳(メタデータ) (2020-04-28T13:57:42Z) - Triple Memory Networks: a Brain-Inspired Method for Continual Learning [35.40452724755021]
ニューラルネットワークは、新しいタスクを学ぶ際にパラメータを調整するが、古いタスクをうまく実行できない。
脳は破滅的な干渉なしに新しい経験を継続的に学習する能力を持っている。
このような脳戦略に触発されて、連続学習のための三重記憶ネットワーク(TMN)という新しいアプローチを提案する。
論文 参考訳(メタデータ) (2020-03-06T11:35:24Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。