論文の概要: "What" x "When" working memory representations using Laplace Neural Manifolds
- arxiv url: http://arxiv.org/abs/2409.20484v1
- Date: Mon, 30 Sep 2024 16:47:45 GMT
- ステータス: 処理完了
- システム内更新日: 2024-10-02 05:36:48.602915
- Title: "What" x "When" working memory representations using Laplace Neural Manifolds
- Title(参考訳): ラプラス・ニューラル・マニフォールドを用いた「何」×「いつ」動作記憶表現
- Authors: Aakash Sarkar, Chenyu Wang, Shangfu Zuo, Marc W. Howard,
- Abstract要約: ワーキングメモリは、過去へと連続的に後退する最近のイベントを記憶することができる。
作業記憶をコードするCanRFRFニューロンは結膜刺激と混在している。
ラプラス多様体を構成する連続アトラクションNをスケッチする。
- 参考スコア(独自算出の注目度): 8.04565443575703
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Working memory $\unicode{x2013}$ the ability to remember recent events as they recede continuously into the past $\unicode{x2013}$ requires the ability to represent any stimulus at any time delay. This property requires neurons coding working memory to show mixed selectivity, with conjunctive receptive fields (RFs) for stimuli and time, forming a representation of 'what' $\times$ 'when'. We study the properties of such a working memory in simple experiments where a single stimulus must be remembered for a short time. The requirement of conjunctive receptive fields allows the covariance matrix of the network to decouple neatly, allowing an understanding of the low-dimensional dynamics of the population. Different choices of temporal basis functions lead to qualitatively different dynamics. We study a specific choice $\unicode{x2013}$ a Laplace space with exponential basis functions for time coupled to an "Inverse Laplace" space with circumscribed basis functions in time. We refer to this choice with basis functions that evenly tile log time as a Laplace Neural Manifold. Despite the fact that they are related to one another by a linear projection, the Laplace population shows a stable stimulus-specific subspace whereas the Inverse Laplace population shows rotational dynamics. The growth of the rank of the covariance matrix with time depends on the density of the temporal basis set; logarithmic tiling shows good agreement with data. We sketch a continuous attractor CANN that constructs a Laplace Neural Manifold. The attractor in the Laplace space appears as an edge; the attractor for the inverse space appears as a bump. This work provides a map for going from more abstract cognitive models of WM to circuit-level implementation using continuous attractor neural networks, and places constraints on the types of neural dynamics that support working memory.
- Abstract(参考訳): ワーキングメモリ $\unicode{x2013}$ 最近のイベントを記憶する機能。
この性質は、混合選択性を示すためにニューロンが動作メモリをコーディングし、刺激と時間の共役受容場(RF)が'What'$\times$ 'when'の表現を形成する必要がある。
単一刺激を短時間に記憶しなければならない簡単な実験において、そのような動作記憶の特性について検討する。
共役受容場の要求により、ネットワークの共分散行列は適切に分離することができ、集団の低次元力学を理解できるようになる。
時間基底関数の異なる選択は質的に異なるダイナミクスをもたらす。
時間に対する指数基底関数を持つラプラス空間を「逆ラプラス」空間に結合した特定の選択を$\unicode{x2013}$で検討する。
我々は、この選択をラプラス・ニューラルマニフォールド(Laplace Neural Manifold)として均等にタイルログ時間を持つ基底関数で参照する。
線形射影によってそれらが互いに関連しているにもかかわらず、ラプラスの個体群は安定な刺激特異的部分空間を示すのに対し、逆ラプラスの個体群は回転ダイナミクスを示す。
時間による共分散行列の階数の成長は時間的基底集合の密度に依存するが、対数的タイリングはデータとよく一致している。
ラプラス・ニューラル・マニフォールドを構成する連続アトラクションCANNをスケッチする。
ラプラス空間の引力はエッジとして現れ、逆空間の引力はバンプとして現れる。
この研究は、WMのより抽象的な認知モデルから、連続的なアトラクタニューラルネットワークを用いた回路レベルの実装へ移行するためのマップを提供し、ワーキングメモリをサポートするニューラルダイナミクスのタイプに制約を課す。
関連論文リスト
- Temporal Aggregation and Propagation Graph Neural Networks for Dynamic
Representation [67.26422477327179]
時間グラフは連続時間を通してノード間の動的相互作用を示す。
本研究では,周辺地域全体と時間的グラフ畳み込みの新たな手法を提案する。
提案するTAP-GNNは,予測性能とオンライン推論遅延の両面で,既存の時間グラフ手法よりも優れた性能を示す。
論文 参考訳(メタデータ) (2023-04-15T08:17:18Z) - INCREASE: Inductive Graph Representation Learning for Spatio-Temporal
Kriging [35.193756288996944]
SRU-temporal kriging は Web や Internet of Things のような Web やソーシャルアプリケーションにおいて重要な問題である。
クリグのための新しい帰納的グラフ表現学習モデルを提案する。
論文 参考訳(メタデータ) (2023-02-06T12:28:35Z) - Neural Laplace: Learning diverse classes of differential equations in
the Laplace domain [86.52703093858631]
本稿では,これらすべてを含む多種多様な微分方程式(DE)を学習するための統一的な枠組みを提案する。
時間領域の力学をモデル化する代わりに、ラプラス領域でモデル化する。
The experiment, Neural Laplace shows excellent performance in modelling and extrapolating the trajectories of various class of DEs。
論文 参考訳(メタデータ) (2022-06-10T02:14:59Z) - Holographic reconstruction of asymptotically flat spacetimes [0.0]
本研究では、時空の「未来境界」に居住する無質量場の相関関数を用いたバルク時空幾何学の「ホログラフィック」再構成を提案する。
4次元時空$mathcalM$と3次元のヌル境界$mathscrI+$に存在する別のマスレス場の相関関数の間に1対1の対応が存在するという意味ではホログラフィックである。
論文 参考訳(メタデータ) (2022-03-29T18:02:53Z) - Logical Activation Functions: Logit-space equivalents of Boolean
Operators [4.577830474623795]
ニューラルネットワークのアクティベーション関数としてデプロイ可能な,$textAND_textAIL$という効率的な近似を導入する。
画像分類,伝達学習,抽象的推論,合成ゼロショット学習など,様々なタスクにおいて有効性を示す。
論文 参考訳(メタデータ) (2021-10-22T17:49:42Z) - Near-Minimax Optimal Estimation With Shallow ReLU Neural Networks [19.216784367141972]
本研究では,浅層(単層)ReLUニューラルネットワークを用いた雑音データから未知の関数を推定する問題について検討する。
我々は、データ生成関数がラドン領域における二階有界変動関数の空間に属するとき、これらのニューラルネットワーク推定器の性能を定量化する。
論文 参考訳(メタデータ) (2021-09-18T05:56:06Z) - Astrocytes mediate analogous memory in a multi-layer neuron-astrocytic
network [52.77024349608834]
情報の一部が数秒間堅牢な活動パターンとして維持され、他の刺激が来なければ完全に消滅することを示す。
この種の短期記憶は、操作情報を数秒保存し、次のパターンとの重複を避けるために完全に忘れてしまう。
任意のパターンをロードし、一定の間隔で保存し、適切な手掛かりパターンを入力に適用した場合に検索する方法について示す。
論文 参考訳(メタデータ) (2021-08-31T16:13:15Z) - Temporal Memory Relation Network for Workflow Recognition from Surgical
Video [53.20825496640025]
本研究では, 長期および多スケールの時間パターンを関連づける, エンドツーエンドの時間メモリ関係ネットワーク (TMNet) を提案する。
我々はこのアプローチを2つのベンチマーク手術ビデオデータセットで広範囲に検証した。
論文 参考訳(メタデータ) (2021-03-30T13:20:26Z) - Connecting the Dots: Multivariate Time Series Forecasting with Graph
Neural Networks [91.65637773358347]
多変量時系列データに特化して設計された汎用グラフニューラルネットワークフレームワークを提案する。
グラフ学習モジュールを用いて,変数間の一方向関係を自動的に抽出する。
提案手法は,4つのベンチマークデータセットのうち3つにおいて,最先端のベースライン手法よりも優れている。
論文 参考訳(メタデータ) (2020-05-24T04:02:18Z) - Non-linear Neurons with Human-like Apical Dendrite Activations [81.18416067005538]
XOR論理関数を100%精度で学習し, 標準的なニューロンに後続のアピーカルデンドライト活性化(ADA)が認められた。
コンピュータビジョン,信号処理,自然言語処理の6つのベンチマークデータセットについて実験を行った。
論文 参考訳(メタデータ) (2020-02-02T21:09:39Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。