論文の概要: On Computational Modeling of Sleep-Wake Cycle
- arxiv url: http://arxiv.org/abs/2404.05484v2
- Date: Fri, 17 May 2024 17:18:28 GMT
- ステータス: 処理完了
- システム内更新日: 2024-05-20 18:12:19.437269
- Title: On Computational Modeling of Sleep-Wake Cycle
- Title(参考訳): 睡眠覚醒サイクルの計算モデルについて
- Authors: Xin Li,
- Abstract要約: 神経科学は、睡眠と覚醒を脳のデフォルトおよび摂動モードとして扱う。
脳は環境入力なしで神経活動を自己組織していると仮定されている。
本稿では,学習と記憶のための睡眠覚醒サイクルの新しい計算モデルを提案する。
- 参考スコア(独自算出の注目度): 5.234742752529437
- License: http://creativecommons.org/publicdomain/zero/1.0/
- Abstract: Why do mammals need to sleep? Neuroscience treats sleep and wake as default and perturbation modes of the brain. It is hypothesized that the brain self-organizes neural activities without environmental inputs. This paper presents a new computational model of the sleep-wake cycle (SWC) for learning and memory. During the sleep mode, the memory consolidation by the thalamocortical system is abstracted by a disentangling operator that maps context-dependent representations (CDR) to context-independent representations (CIR) for generalization. Such a disentangling operator can be mathematically formalized by an integral transform that integrates the context variable from CDR. During the wake mode, the memory formation by the hippocampal-neocortical system is abstracted by an entangling operator from CIR to CDR where the context is introduced by physical motion. When designed as inductive bias, entangled CDR linearizes the problem of unsupervised learning for sensory memory by direct-fit. The concatenation of disentangling and entangling operators forms a disentangling-entangling cycle (DEC) as the building block for sensorimotor learning. We also discuss the relationship of DEC and SWC to the perception-action cycle (PAC) for internal model learning and perceptual control theory for the ecological origin of natural languages.
- Abstract(参考訳): なぜ哺乳類は眠る必要があるのか。
神経科学は、睡眠と覚醒を脳のデフォルトおよび摂動モードとして扱う。
脳は環境入力なしで神経活動を自己組織していると仮定されている。
本稿では,学習と記憶のための睡眠覚醒サイクル(SWC)の新しい計算モデルを提案する。
睡眠モードでは、視床皮質系による記憶の凝縮は、一般化のためにコンテキスト依存表現(CDR)とコンテキスト非依存表現(CIR)をマッピングするアンタングル演算子によって抽象化される。
このような解離作用素は、CDRからコンテキスト変数を統合する積分変換によって数学的に定式化することができる。
ウェイクモード中、海馬-大脳皮質系による記憶形成は、物理的な動きによってコンテキストが導入されたCIRからCDRへの絡み合う演算子によって抽象化される。
帰納バイアスとして設計されると、絡み合ったCDRは、直接フィットすることで感覚記憶における教師なし学習の問題を線形化する。
絡み合わさった作用素と絡み合わさった作用素の結合は、感覚運動学習のためのビルディングブロックとしてディエンタングリング・エンタングリング・サイクル(DEC)を形成する。
また、内的モデル学習における認知行動サイクル(PAC)と、自然言語の生態的起源に対する知覚制御理論との関係についても論じる。
関連論文リスト
- Don't Cut Corners: Exact Conditions for Modularity in Biologically Inspired Representations [52.48094670415497]
我々は、生物にインスパイアされた表現が、ソース変数(ソース)に関してモジュール化されるときの理論を開発する。
我々は、最適な生物学的にインスパイアされたリニアオートエンコーダのニューロンがモジュラー化されるかどうかを判断する情報源のサンプルに対して、必要かつ十分な条件を導出する。
我々の理論はどんなデータセットにも当てはまり、以前の研究で研究された統計的な独立性よりもはるかに長い。
論文 参考訳(メタデータ) (2024-10-08T17:41:37Z) - An Overlooked Role of Context-Sensitive Dendrites [2.225268436173329]
コンテクスト感受性 (CS-TPN) は, CモーメントとFFソマティック電流を柔軟に統合できることが示唆された。
これにより、よりコヒーレントな信号(バースト)の伝播が可能になり、より少ないニューロンで学習を速くする。
論文 参考訳(メタデータ) (2024-08-20T17:18:54Z) - Interpretable Spatio-Temporal Embedding for Brain Structural-Effective Network with Ordinary Differential Equation [56.34634121544929]
本研究では,まず動的因果モデルを用いて脳効果ネットワークを構築する。
次に、STE-ODE(Spatio-Temporal Embedding ODE)と呼ばれる解釈可能なグラフ学習フレームワークを導入する。
このフレームワークは、構造的および効果的なネットワーク間の動的相互作用を捉えることを目的とした、特異的に設計されたノード埋め込み層を含んでいる。
論文 参考訳(メタデータ) (2024-05-21T20:37:07Z) - Inferring Inference [7.11780383076327]
我々は,大規模神経活動パターンから標準分散計算を推定するフレームワークを開発した。
確率的グラフィカルモデルに近似推論アルゴリズムを暗黙的に実装したモデル脳のための記録をシミュレートする。
全体として、このフレームワークはニューラル記録の解釈可能な構造を発見するための新しいツールを提供する。
論文 参考訳(メタデータ) (2023-10-04T22:12:11Z) - Neural-Symbolic Recursive Machine for Systematic Generalization [113.22455566135757]
我々は、基底記号システム(GSS)のコアとなるニューラル・シンボリック再帰機械(NSR)を紹介する。
NSRは神経知覚、構文解析、意味推論を統合している。
我々はNSRの有効性を,系統的一般化能力の探索を目的とした4つの挑戦的ベンチマークで評価した。
論文 参考訳(メタデータ) (2022-10-04T13:27:38Z) - Cross-Frequency Coupling Increases Memory Capacity in Oscillatory Neural
Networks [69.42260428921436]
クロス周波数カップリング(CFC)は、ニューロンの集団間での情報統合と関連している。
我々は,海馬および大脳皮質における観測された$theta - gamma$振動回路の計算的役割を予測するCFCのモデルを構築した。
CFCの存在は, 可塑性シナプスによって結合された神経細胞のメモリ容量を増加させることを示す。
論文 参考訳(メタデータ) (2022-04-05T17:13:36Z) - A probabilistic latent variable model for detecting structure in binary
data [0.6767885381740952]
スパースバイナリデータにおけるパターンの雑音や近似的な繰り返しを検出するために,新しい確率的二項潜在変数モデルを導入する。
モデルの能力は、網膜ニューロンから記録された構造を抽出することによって示される。
映画刺激時の網膜神経節細胞に記録されたスパイク応答に本モデルを適用した。
論文 参考訳(メタデータ) (2022-01-26T18:37:35Z) - Dynamic Inference with Neural Interpreters [72.90231306252007]
本稿では,モジュールシステムとしての自己アテンションネットワークにおける推論を分解するアーキテクチャであるNeural Interpretersを提案する。
モデルへの入力は、エンドツーエンドの学習方法で一連の関数を通してルーティングされる。
ニューラル・インタープリタは、より少ないパラメータを用いて視覚変換器と同等に動作し、サンプル効率で新しいタスクに転送可能であることを示す。
論文 参考訳(メタデータ) (2021-10-12T23:22:45Z) - From internal models toward metacognitive AI [0.0]
前頭前皮質では、「認知現実監視ネットワーク」と呼ばれる分散型エグゼクティブネットワークが、生成的逆モデルペアの意識的な関与を編成する。
高い責任信号は、外界を最も捉えているペアに与えられる。
意識はすべての対における責任信号のエントロピーによって決定される。
論文 参考訳(メタデータ) (2021-09-27T05:00:56Z) - The Causal Neural Connection: Expressiveness, Learnability, and
Inference [125.57815987218756]
構造因果モデル (Structuor causal model, SCM) と呼ばれるオブジェクトは、調査中のシステムのランダムな変動のメカニズムと源の集合を表す。
本稿では, 因果的階層定理 (Thm. 1, Bareinboim et al., 2020) がまだニューラルモデルに対して成り立っていることを示す。
我々はニューラル因果モデル(NCM)と呼ばれる特殊なタイプのSCMを導入し、因果推論に必要な構造的制約をエンコードする新しいタイプの帰納バイアスを定式化する。
論文 参考訳(メタデータ) (2021-07-02T01:55:18Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。