論文の概要: Information Processing by Neuron Populations in the Central Nervous
System: Mathematical Structure of Data and Operations
- arxiv url: http://arxiv.org/abs/2309.02332v1
- Date: Tue, 5 Sep 2023 15:52:45 GMT
- ステータス: 処理完了
- システム内更新日: 2023-09-06 13:52:49.133213
- Title: Information Processing by Neuron Populations in the Central Nervous
System: Mathematical Structure of Data and Operations
- Title(参考訳): 中枢神経系におけるニューロン集団による情報処理:データと操作の数学的構造
- Authors: Martin N. P. Nilsson
- Abstract要約: 本稿では, 可塑性を有するジェネリックニューロンの, 最先端の力学モデルを提案する。
情報の表現と操作は、有限凸錐の代数によって正確に特徴づけられる。
この研究は、認知科学やAIといった分野における理解を深める上で、マトリックス埋め込みの可能性を照らしている。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In the intricate architecture of the mammalian central nervous system,
neurons form populations. Axonal bundles communicate between these clusters
using spike trains as their medium. However, these neuron populations' precise
encoding and operations have yet to be discovered. In our analysis, the
starting point is a state-of-the-art mechanistic model of a generic neuron
endowed with plasticity. From this simple framework emerges a profound
mathematical construct: The representation and manipulation of information can
be precisely characterized by an algebra of finite convex cones. Furthermore,
these neuron populations are not merely passive transmitters. They act as
operators within this algebraic structure, mirroring the functionality of a
low-level programming language. When these populations interconnect, they
embody succinct yet potent algebraic expressions. These networks allow them to
implement many operations, such as specialization, generalization, novelty
detection, dimensionality reduction, inverse modeling, prediction, and
associative memory. In broader terms, this work illuminates the potential of
matrix embeddings in advancing our understanding in fields like cognitive
science and AI. These embeddings enhance the capacity for concept processing
and hierarchical description over their vector counterparts.
- Abstract(参考訳): 哺乳類の中枢神経系の複雑な構造では、神経細胞が集団を形成する。
軸索束はスパイク列車を媒介としてこれらのクラスター間で通信する。
しかし、これらのニューロン集団の正確なエンコーディングと操作はまだ発見されていない。
私たちの分析では、開始点は可塑性を持つジェネリックニューロンの最先端の機構モデルである。
情報の表現と操作は、有限凸錐の代数によって正確に特徴づけられる。
さらに、これらのニューロン集団は単なる受動送信機ではない。
それらはこの代数構造内の演算子として働き、低レベルプログラミング言語の機能を反映している。
これらの集団が相互に結合すると、簡潔だが強力な代数表現を具現化する。
これらのネットワークにより、特殊化、一般化、新規検出、次元減少、逆モデリング、予測、連想記憶といった多くの操作を実装できる。
広い意味で言えば、この研究は認知科学やaiといった分野の理解を深める上でマトリックス埋め込みの可能性を照らしている。
これらの埋め込みは、ベクトル上の概念処理と階層的記述の能力を高める。
関連論文リスト
- Unsupervised representation learning with Hebbian synaptic and structural plasticity in brain-like feedforward neural networks [0.0]
教師なし表現学習が可能な脳様ニューラルネットワークモデルを導入,評価する。
このモデルは、一般的な機械学習ベンチマークのさまざまなセットでテストされた。
論文 参考訳(メタデータ) (2024-06-07T08:32:30Z) - Brain-Inspired Machine Intelligence: A Survey of
Neurobiologically-Plausible Credit Assignment [65.268245109828]
本稿では,神経生物学にインスパイアされた,あるいは動機付けられた人工ニューラルネットワークにおける信用割当を行うアルゴリズムについて検討する。
我々は、脳にインスパイアされた学習スキームを6つの一般的なファミリーにまとめ、これらを誤りのバックプロパゲーションの文脈で検討する。
本研究の成果は,神経ミメティックシステムとその構成的学習プロセスの今後の発展を促進することを目的としている。
論文 参考訳(メタデータ) (2023-12-01T05:20:57Z) - A Goal-Driven Approach to Systems Neuroscience [2.6451153531057985]
人間と動物は、動的環境において様々な興味深い行動を示す。
私たちの脳が、こうした行動を可能にするために、どのようにしてこの密集した感覚情報を積極的に再構築するかは不明です。
我々は、ニューラルサーキットの統一構造モデルと機能モデルを生み出すことを約束する新しい解釈可能性の定義を提供する。
論文 参考訳(メタデータ) (2023-11-05T16:37:53Z) - POPPINS : A Population-Based Digital Spiking Neuromorphic Processor with
Integer Quadratic Integrate-and-Fire Neurons [50.591267188664666]
2つの階層構造を持つ180nmプロセス技術において,集団に基づくディジタルスパイキングニューロモルフィックプロセッサを提案する。
提案手法は,生体模倣型ニューロモルフィックシステム,低消費電力,低遅延推論処理アプリケーションの開発を可能にする。
論文 参考訳(メタデータ) (2022-01-19T09:26:34Z) - Emergence of Machine Language: Towards Symbolic Intelligence with Neural
Networks [73.94290462239061]
本稿では、ニューラルネットワークを用いてシンボルとコネクショナリズムの原理を組み合わせることで、離散表現を導出することを提案する。
対話型環境とタスクを設計することにより、機械が自発的で柔軟でセマンティックな言語を生成できることを実証した。
論文 参考訳(メタデータ) (2022-01-14T14:54:58Z) - Detecting Modularity in Deep Neural Networks [8.967870619902211]
ネットワークニューロンの分割によるモジュラリティ評価の問題点を考察する。
本稿では,ニューロンがネットワーク性能にいかに重要かを反映した重要度と,そのニューロンが入力の特徴といかに常に関連しているかを反映したコヒーレンスという2つのプロキシを提案する。
これらの分割は、重みのみに基づくものであっても、重要で一貫性のあるニューロンのグループを明らかにします。
論文 参考訳(メタデータ) (2021-10-13T20:33:30Z) - Dynamic Inference with Neural Interpreters [72.90231306252007]
本稿では,モジュールシステムとしての自己アテンションネットワークにおける推論を分解するアーキテクチャであるNeural Interpretersを提案する。
モデルへの入力は、エンドツーエンドの学習方法で一連の関数を通してルーティングされる。
ニューラル・インタープリタは、より少ないパラメータを用いて視覚変換器と同等に動作し、サンプル効率で新しいタスクに転送可能であることを示す。
論文 参考訳(メタデータ) (2021-10-12T23:22:45Z) - Compositional Processing Emerges in Neural Networks Solving Math
Problems [100.80518350845668]
人工知能の最近の進歩は、大きなモデルが十分な言語データに基づいて訓練されると、文法構造が表現に現れることを示している。
我々は、この研究を数学的推論の領域にまで拡張し、どのように意味を構成するべきかについての正確な仮説を定式化することができる。
私たちの研究は、ニューラルネットワークがトレーニングデータに暗黙的に構造化された関係について何かを推測できるだけでなく、個々の意味の合成を合成全体へと導くために、この知識を展開できることを示している。
論文 参考訳(メタデータ) (2021-05-19T07:24:42Z) - Neural population geometry: An approach for understanding biological and
artificial neural networks [3.4809730725241605]
生体および人工ニューラルネットワークの機能に関する洞察を提供する幾何学的アプローチの例を概観する。
神経集団幾何学は、生体と人工のニューラルネットワークにおける構造と機能の理解を統一する可能性がある。
論文 参考訳(メタデータ) (2021-04-14T18:10:34Z) - Continual Learning with Deep Artificial Neurons [0.0]
本稿では,Deep Artificial Neurons (DAN)を導入し,ディープニューラルネットワークとして実現した。
ネットワーク内のすべてのDANが共有する神経表現型をダブする単一パラメータベクトルをメタ学習することが可能であることを示す。
適切な神経表現型は,最小限の忘れを伴ってシナプスを更新する能力を持つ単一ネットワークを育むことができることを示す。
論文 参考訳(メタデータ) (2020-11-13T17:50:10Z) - Compositional Explanations of Neurons [52.71742655312625]
本稿では, 合成論理的概念を同定し, 深部表現におけるニューロンの説明手順について述べる。
本稿では,視覚と自然言語処理のモデルにおける解釈可能性に関するいくつかの疑問に答えるために,この手順を用いる。
論文 参考訳(メタデータ) (2020-06-24T20:37:05Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。