論文の概要: A Unified Cortical Circuit Model with Divisive Normalization and Self-Excitation for Robust Representation and Memory Maintenance
- arxiv url: http://arxiv.org/abs/2508.12702v1
- Date: Mon, 18 Aug 2025 08:00:24 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-08-19 14:49:11.073899
- Title: A Unified Cortical Circuit Model with Divisive Normalization and Self-Excitation for Robust Representation and Memory Maintenance
- Title(参考訳): ロバスト表現と記憶維持のための分割正規化と自己励磁を含む統一皮質回路モデル
- Authors: Jie Su, Weiwei Wang, Zhaotian Gu, Dahui Wang, Tianyi Qian,
- Abstract要約: 本稿では,分割正規化と自己励磁を組み合わせ,ロバストな符号化を実現するリカレントニューラルネットワークを提案する。
2つの標準タスクでモデルの汎用性を実証する。
この研究は、ノイズ抑圧、ワーキングメモリ、近似ベイズ推論を橋渡しする統一的な数学的枠組みを確立する。
- 参考スコア(独自算出の注目度): 2.705743343600661
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Robust information representation and its persistent maintenance are fundamental for higher cognitive functions. Existing models employ distinct neural mechanisms to separately address noise-resistant processing or information maintenance, yet a unified framework integrating both operations remains elusive -- a critical gap in understanding cortical computation. Here, we introduce a recurrent neural circuit that combines divisive normalization with self-excitation to achieve both robust encoding and stable retention of normalized inputs. Mathematical analysis shows that, for suitable parameter regimes, the system forms a continuous attractor with two key properties: (1) input-proportional stabilization during stimulus presentation; and (2) self-sustained memory states persisting after stimulus offset. We demonstrate the model's versatility in two canonical tasks: (a) noise-robust encoding in a random-dot kinematogram (RDK) paradigm; and (b) approximate Bayesian belief updating in a probabilistic Wisconsin Card Sorting Test (pWCST). This work establishes a unified mathematical framework that bridges noise suppression, working memory, and approximate Bayesian inference within a single cortical microcircuit, offering fresh insights into the brain's canonical computation and guiding the design of biologically plausible artificial neural architectures.
- Abstract(参考訳): ロバストな情報表現とその持続的維持は、高い認知機能に欠かせない。
既存のモデルでは、ノイズ耐性処理や情報保守を別々に扱うために、独自の神経機構を採用しているが、両方の操作を統合する統一フレームワークは、大脳皮質計算を理解する上で重要なギャップである。
本稿では,分割正規化と自己励磁を併用して,正規化入力のロバスト符号化と安定保持を実現するリカレントニューラルネットワークを提案する。
数学的解析により,本システムは,(1)刺激提示時の入力-確率安定化,(2)刺激オフセット後に持続する自己持続記憶状態の2つの重要な特性を持つ連続的なアトラクタを形成することが示された。
モデルの汎用性を2つの標準的タスクで示す。
(a)ランダム・ドット・キネマトグラム(RDK)パラダイムによるノイズ・ロバスト符号化、及び
b) 確率論的ウィスコンシン・カード・ソーティング・テスト(pWCST)におけるベイズ的信念の更新
この研究は、単一皮質のマイクロ回路内でノイズ抑制、ワーキングメモリ、および近似ベイズ推定をブリッジする統一された数学的枠組みを確立し、脳の標準計算に対する新たな洞察を提供し、生物学的に検証可能な人工神経アーキテクチャの設計を導く。
関連論文リスト
- Cycle-Consistent Helmholtz Machine: Goal-Seeded Simulation via Inverted Inference [5.234742752529437]
emphCycle-Consistent Helmholtz Machine (C$2$HM)を紹介する。
C$2$HM reframes inference as a emphgoal-seeded, emphasymmetric process grounded in structureed internal priors。
古典的償却推論に代わる生物学的にインスパイアされた代替手段を提供することにより、$C2$HMは生成モデリングを意図的シミュレーションとして再考する。
論文 参考訳(メタデータ) (2025-07-03T17:24:27Z) - Feature Integration Spaces: Joint Training Reveals Dual Encoding in Neural Network Representations [0.0]
ニューラルネットワークの解釈可能性に対する現在のオートエンコーダ(SAE)アプローチは、線形重ね合わせによって活性化がスパースで解釈可能な特徴に分解可能であることを前提としている。
ニューラルネットワークは2つの相補的な空間に情報をエンコードし,その情報を同じ基板に圧縮する。
共同トレーニングは41.3%の再建改善と51.6%のKL分岐誤差の低減を実現している。
論文 参考訳(メタデータ) (2025-06-30T21:26:58Z) - Allostatic Control of Persistent States in Spiking Neural Networks for perception and computation [79.16635054977068]
本稿では,アロスタシスの概念を内部表現の制御に拡張することにより,環境に対する知覚的信念を更新するための新しいモデルを提案する。
本稿では,アトラクタネットワークにおける活動の急増を空間的数値表現として利用する数値認識の応用に焦点を当てる。
論文 参考訳(メタデータ) (2025-03-20T12:28:08Z) - A Novel Framework for Learning Stochastic Representations for Sequence Generation and Recognition [0.0]
シーケンシャルなデータの生成と認識は、動的環境で動作する自律システムの基本である。
パラメトリックバイアスを用いた新しいリカレントネットワーク(RNNPB)を提案する。
我々のアプローチは、時間パターンをモデル化するためのフレームワークを提供し、人工知能とロボティクスにおける堅牢なシステムの開発を前進させる。
論文 参考訳(メタデータ) (2024-12-30T07:27:50Z) - Discrete, compositional, and symbolic representations through attractor dynamics [51.20712945239422]
我々は,思考の確率的言語(PLoT)に似た認知過程をモデル化するために,アトラクタダイナミクスを記号表現と統合した新しいニューラルシステムモデルを導入する。
我々のモデルは、連続表現空間を、事前定義されたプリミティブに頼るのではなく、教師なし学習を通じて、記号系の意味性と構成性の特徴を反映する、記号列に対応する引き付け状態を持つ離散盆地に分割する。
このアプローチは、認知操作の複雑な双対性を反映したより包括的なモデルを提供する、AIにおける表現力の証明された神経弁別可能な基質であるニューラルダイナミクスを通じて、シンボル処理とサブシンボル処理の両方を統合する統一的なフレームワークを確立する。
論文 参考訳(メタデータ) (2023-10-03T05:40:56Z) - Hybrid Predictive Coding: Inferring, Fast and Slow [62.997667081978825]
本稿では,反復型と償却型の両方を原則的に組み合わせたハイブリッド予測符号化ネットワークを提案する。
我々は,本モデルが本質的に不確実性に敏感であり,最小計算費用を用いて正確な信念を得るためにバランスを適応的にバランスさせることを実証した。
論文 参考訳(メタデータ) (2022-04-05T12:52:45Z) - Any-to-Many Voice Conversion with Location-Relative Sequence-to-Sequence
Modeling [61.351967629600594]
本稿では,非並列音声変換手法である非並列音声変換法(seq2seq)を提案する。
本手法では,ボトルネック特徴抽出器(BNE)とセック2セック合成モジュールを組み合わせる。
主観的および主観的評価は,提案手法が自然性と話者類似性の両方において優れた音声変換性能を有することを示す。
論文 参考訳(メタデータ) (2020-09-06T13:01:06Z) - Learning Noise-Aware Encoder-Decoder from Noisy Labels by Alternating
Back-Propagation for Saliency Detection [54.98042023365694]
本稿では,ノイズを考慮したエンコーダ・デコーダ・フレームワークを提案する。
提案モデルはニューラルネットワークによってパラメータ化された2つのサブモデルから構成される。
論文 参考訳(メタデータ) (2020-07-23T18:47:36Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。