論文の概要: Computation with Sequences in the Brain
- arxiv url: http://arxiv.org/abs/2306.03812v1
- Date: Tue, 6 Jun 2023 15:58:09 GMT
- ステータス: 処理完了
- システム内更新日: 2023-06-07 14:37:49.555526
- Title: Computation with Sequences in the Brain
- Title(参考訳): 脳内の配列を用いた計算
- Authors: Max Dabagia, Christos H. Papadimitriou, Santosh S. Vempala
- Abstract要約: 神経活動から認知がどのように生じるかは神経科学の中心的な問題である。
本研究は, シナプス重量と可塑性により, 時刻を優先的に捉えることができることを示す。
我々は、任意の有限状態機械が、シーケンスの適切なパターンの提示を通して、同様の方法で学習可能であることを示す。
- 参考スコア(独自算出の注目度): 10.105276480038606
- License: http://creativecommons.org/licenses/by-sa/4.0/
- Abstract: Even as machine learning exceeds human-level performance on many
applications, the generality, robustness, and rapidity of the brain's learning
capabilities remain unmatched. How cognition arises from neural activity is a
central open question in neuroscience, inextricable from the study of
intelligence itself. A simple formal model of neural activity was proposed in
Papadimitriou [2020] and has been subsequently shown, through both mathematical
proofs and simulations, to be capable of implementing certain simple cognitive
operations via the creation and manipulation of assemblies of neurons. However,
many intelligent behaviors rely on the ability to recognize, store, and
manipulate temporal sequences of stimuli (planning, language, navigation, to
list a few). Here we show that, in the same model, time can be captured
naturally as precedence through synaptic weights and plasticity, and, as a
result, a range of computations on sequences of assemblies can be carried out.
In particular, repeated presentation of a sequence of stimuli leads to the
memorization of the sequence through corresponding neural assemblies: upon
future presentation of any stimulus in the sequence, the corresponding assembly
and its subsequent ones will be activated, one after the other, until the end
of the sequence. Finally, we show that any finite state machine can be learned
in a similar way, through the presentation of appropriate patterns of
sequences. Through an extension of this mechanism, the model can be shown to be
capable of universal computation. We support our analysis with a number of
experiments to probe the limits of learning in this model in key ways. Taken
together, these results provide a concrete hypothesis for the basis of the
brain's remarkable abilities to compute and learn, with sequences playing a
vital role.
- Abstract(参考訳): 機械学習は多くのアプリケーションで人間レベルのパフォーマンスを上回っているが、脳の学習能力の汎用性、堅牢性、迅速性は相容れないままである。
神経活動から認知がどのように生じるかは、神経科学において中心的なオープンな問題であり、知性自体の研究から不可解である。
神経活動の単純な形式モデルがpadimitriou [2020]で提案され、その後、数学的証明とシミュレーションの両方を通じて、ニューロンのアセンブリの作成と操作を通じて、特定の単純な認知操作を実行することができることが示されている。
しかし、多くの知的行動は刺激の時間的シーケンス(計画、言語、ナビゲーションなど)を認識し、記憶し、操作する能力に依存している。
ここでは, 同じモデルにおいて, シナプス重みと可塑性により, 時刻を優先的に捉えることができ, 結果として, 集合列上の計算範囲を計算できることを示す。
特に、一連の刺激の繰り返しの提示は、対応する神経集合体を通して配列を記憶させる: 配列内の任意の刺激の将来の提示では、対応するアセンブリとその後続の刺激は、配列の終わりまで、それぞれ活性化される。
最後に、任意の有限状態機械は、適切なシーケンスパターンの提示を通じて、同様の方法で学習できることを示す。
この機構の拡張により、モデルは普遍的な計算が可能であることが示される。
我々は、このモデルにおける学習の限界を重要な方法で探究するために、いくつかの実験で分析を支援します。
これらの結果は、脳の卓越した計算と学習能力の基礎となる具体的な仮説を与え、配列が重要な役割を担っている。
関連論文リスト
- Artificial Kuramoto Oscillatory Neurons [65.16453738828672]
しきい値単位の動的代替として人工内蔵ニューロン(AKOrN)を導入する。
このアイデアは、幅広いタスクにまたがってパフォーマンス改善をもたらすことを示しています。
これらの経験的結果は、神経表現の最も基本的なレベルにおいて、私たちの仮定の重要性を示していると信じている。
論文 参考訳(メタデータ) (2024-10-17T17:47:54Z) - Coin-Flipping In The Brain: Statistical Learning with Neuronal Assemblies [9.757971977909683]
脳の計算モデルNEMOにおける統計的学習の出現について検討する。
アセンブリ間の接続が統計を記録し、環境騒音を利用して確率的選択をすることができることを示す。
論文 参考訳(メタデータ) (2024-06-11T20:51:50Z) - Brain-Inspired Machine Intelligence: A Survey of
Neurobiologically-Plausible Credit Assignment [65.268245109828]
本稿では,神経生物学にインスパイアされた,あるいは動機付けられた人工ニューラルネットワークにおける信用割当を行うアルゴリズムについて検討する。
我々は、脳にインスパイアされた学習スキームを6つの一般的なファミリーにまとめ、これらを誤りのバックプロパゲーションの文脈で検討する。
本研究の成果は,神経ミメティックシステムとその構成的学習プロセスの今後の発展を促進することを目的としている。
論文 参考訳(メタデータ) (2023-12-01T05:20:57Z) - A Goal-Driven Approach to Systems Neuroscience [2.6451153531057985]
人間と動物は、動的環境において様々な興味深い行動を示す。
私たちの脳が、こうした行動を可能にするために、どのようにしてこの密集した感覚情報を積極的に再構築するかは不明です。
我々は、ニューラルサーキットの統一構造モデルと機能モデルを生み出すことを約束する新しい解釈可能性の定義を提供する。
論文 参考訳(メタデータ) (2023-11-05T16:37:53Z) - A Neuro-mimetic Realization of the Common Model of Cognition via Hebbian
Learning and Free Energy Minimization [55.11642177631929]
大規模なニューラル生成モデルは、意味的に豊富なテキストのパスを合成したり、複雑な画像を生成することができる。
我々はコモン・モデル・オブ・コグニティブ・ニューラル・ジェネレーティブ・システムについて論じる。
論文 参考訳(メタデータ) (2023-10-14T23:28:48Z) - Overcoming the Domain Gap in Contrastive Learning of Neural Action
Representations [60.47807856873544]
神経科学の基本的な目標は、神経活動と行動の関係を理解することである。
我々は,ハエが自然に生み出す行動からなる新しいマルチモーダルデータセットを作成した。
このデータセットと新しい拡張セットは、神経科学における自己教師あり学習手法の適用を加速することを約束します。
論文 参考訳(メタデータ) (2021-11-29T15:27:51Z) - On the Evolution of Neuron Communities in a Deep Learning Architecture [0.7106986689736827]
本稿では,ディープラーニングに基づく分類モデルのニューロン活性化パターンについて検討する。
コミュニティの品質(モジュラリティ)とエントロピーの両方が、ディープラーニングモデルのパフォーマンスと密接に関連していることを示す。
論文 参考訳(メタデータ) (2021-06-08T21:09:55Z) - A Neural Dynamic Model based on Activation Diffusion and a
Micro-Explanation for Cognitive Operations [4.416484585765028]
記憶の神経機構は、人工知能における表現の問題と非常に密接な関係を持っている。
脳内のニューロンのネットワークとその情報処理のシミュレーションを行う計算モデルが提案された。
論文 参考訳(メタデータ) (2020-11-27T01:34:08Z) - Compositional Explanations of Neurons [52.71742655312625]
本稿では, 合成論理的概念を同定し, 深部表現におけるニューロンの説明手順について述べる。
本稿では,視覚と自然言語処理のモデルにおける解釈可能性に関するいくつかの疑問に答えるために,この手順を用いる。
論文 参考訳(メタデータ) (2020-06-24T20:37:05Z) - Towards a Neural Model for Serial Order in Frontal Cortex: a Brain
Theory from Memory Development to Higher-Level Cognition [53.816853325427424]
そこで本研究では,未熟な前頭前野 (PFC) が側頭葉信号の階層的パターンを検出する主要な機能を利用していることを提案する。
我々の仮説では、PFCは順序パターンの形で時間的配列の階層構造を検出し、それらを脳の異なる部分で階層的に情報をインデックスするために利用する。
これにより、抽象的な知識を操作し、時間的に順序付けられた情報を計画するための言語対応の脳にツールを提供する。
論文 参考訳(メタデータ) (2020-05-22T14:29:51Z) - Neuronal Sequence Models for Bayesian Online Inference [0.0]
連続神経活動は、脳内の幅広いプロセスの基盤となる。
ニューロン配列の神経科学的証拠は、知覚、運動制御、スピーチ、空間ナビゲーション、記憶といった領域で報告されている。
本稿では、ニューロン配列に関する重要な知見を概説し、感覚運動処理と認識のモデルとして、シーケンスのオンライン推論の概念に関連付ける。
論文 参考訳(メタデータ) (2020-04-02T10:52:54Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。