論文の概要: Sketch of a novel approach to a neural model
- arxiv url: http://arxiv.org/abs/2209.06865v1
- Date: Wed, 14 Sep 2022 18:28:39 GMT
- ステータス: 処理完了
- システム内更新日: 2022-09-16 11:59:22.266526
- Title: Sketch of a novel approach to a neural model
- Title(参考訳): ニューラルモデルへの新しいアプローチのスケッチ
- Authors: Gabriele Scheler
- Abstract要約: ニューラルプロセッシングの水平外部統合モデルとして,神経可塑性の新しいモデルを構築した。
ニューラル・ニューロサイエンスへの新たなアプローチは、AIの第3波に恩恵をもたらすと考えています。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: In this paper, we lay out a novel model of neuroplasticity in the form of a
horizontal-vertical integration model of neural processing. We believe a new
approach to neural modeling will benefit the 3rd wave of AI. The horizontal
plane consists of an adaptive network of neurons connected by transmission
links which generates spatio-temporal spike patterns. This fits with standard
computational neuroscience approaches. Additionally for each individual neuron
there is a vertical part consisting of internal adaptive parameters steering
the external membrane-expressed parameters which are involved in neural
transmission. Each neuron has a vertical modular system of parameters
corresponding to (a) external parameters at the membrane layer, divided into
compartments (spines, boutons) (b) internal parameters in the submembrane zone
and the cytoplasm with its protein signaling network and (c) core parameters in
the nucleus for genetic and epigenetic information. In such models, each node
(=neuron) in the horizontal network has its own internal memory. Neural
transmission and information storage are systematically separated, an important
conceptual advance over synaptic weight models. We discuss the membrane-based
(external) filtering and selection of outside signals for processing vs. signal
loss by fast fluctuations and the neuron-internal computing strategies from
intracellular protein signaling to the nucleus as the core system. We want to
show that the individual neuron has an important role in the computation of
signals and that many assumptions derived from the synaptic weight adjustment
hypothesis of memory may not hold in a real brain. Not every transmission event
leaves a trace and the neuron is a self-programming device, rather than
passively determined by current input. Ultimately we strive to build a flexible
memory system that processes facts and events automatically.
- Abstract(参考訳): 本稿では,ニューラルプロセッシングの水平-垂直統合モデルとして,新しい神経可塑性モデルを提案する。
ニューラルモデリングに対する新しいアプローチは、AIの第3波に恩恵をもたらすと考えています。
水平平面は、時空間スパイクパターンを生成する伝送リンクによって接続されるニューロンの適応ネットワークからなる。
これは標準的な計算神経科学のアプローチに適合する。
さらに、個々のニューロンには、神経伝達に関与する外部の膜発現パラメータを操る内部適応パラメータからなる垂直部分がある。
各ニューロンは、対応するパラメータの垂直なモジュラーシステムを持つ
(a)膜層の外部パラメーターで、区画(スペン、ブートン)に分けられる
b) 膜下領域と細胞質の内部パラメータとそのタンパク質シグナルネットワーク
c) 遺伝学的およびエピジェネティック情報のための核の中核パラメータ。
このようなモデルでは、水平ネットワークの各ノード(=ニューロン)は独自の内部メモリを持つ。
神経伝達と情報記憶は体系的に分離され、シナプス重みモデルよりも重要な概念的な進歩である。
本稿では, 膜に基づく(外部)フィルタリングと, 高速なゆらぎによる信号損失処理のための外部信号の選択, 細胞内タンパク質シグナルから核へのニューロン内計算戦略について論じる。
我々は、個々のニューロンが信号の計算において重要な役割を担っていること、記憶のシナプス重み調整仮説に由来する多くの仮定が実際の脳では持たないことを示したい。
全ての送信イベントがトレースを残し、ニューロンは現在の入力によって受動的に決定されるのではなく、自己プログラミングデバイスである。
最終的には、事実とイベントを自動的に処理する柔軟なメモリシステムを構築しようとしています。
関連論文リスト
- The Neuron as a Direct Data-Driven Controller [43.8450722109081]
本研究は、ニューロンを最適フィードバックコントローラとして概念化し、予測を最適化する現在の規範モデルを拡張する。
我々は、ニューロンを生物学的に実現可能なコントローラとしてモデル化し、ループダイナミクスを暗黙的に識別し、潜伏状態を推測し、制御を最適化する。
我々のモデルは、従来の、フィードフォワード、即時応答のマカロック-ピッツ-ローゼンブラットニューロンから大きく離れており、ニューラルネットワークを構築するための、新しく生物学的にインフォームドされた基本ユニットを提供する。
論文 参考訳(メタデータ) (2024-01-03T01:24:10Z) - Joint Learning Neuronal Skeleton and Brain Circuit Topology with Permutation Invariant Encoders for Neuron Classification [33.47541392305739]
本稿では,スケルトンから得られるニューロンの形態情報と神経回路から得られるニューロン間のトポロジ情報を組み合わせたNeuNetフレームワークを提案する。
我々は、ヒト大脳皮質とショウジョウバエ脳の体積電子顕微鏡(VEM)画像からニューロン分類タスクのための2つの新しいデータセットを再処理し、リリースする。
論文 参考訳(メタデータ) (2023-12-22T08:31:11Z) - The Expressive Leaky Memory Neuron: an Efficient and Expressive Phenomenological Neuron Model Can Solve Long-Horizon Tasks [64.08042492426992]
本稿では,脳皮質ニューロンの生物学的モデルであるExpressive Memory(ELM)ニューロンモデルを紹介する。
ELMニューロンは、上記の入力-出力関係を1万以下のトレーニング可能なパラメータと正確に一致させることができる。
本稿では,Long Range Arena(LRA)データセットなど,時間構造を必要とするタスクで評価する。
論文 参考訳(メタデータ) (2023-06-14T13:34:13Z) - Constraints on the design of neuromorphic circuits set by the properties
of neural population codes [61.15277741147157]
脳内では、情報はコード化され、伝達され、行動を伝えるために使用される。
ニューロモルフィック回路は、脳内のニューロンの集団が使用するものと互換性のある方法で情報を符号化する必要がある。
論文 参考訳(メタデータ) (2022-12-08T15:16:04Z) - POPPINS : A Population-Based Digital Spiking Neuromorphic Processor with
Integer Quadratic Integrate-and-Fire Neurons [50.591267188664666]
2つの階層構造を持つ180nmプロセス技術において,集団に基づくディジタルスパイキングニューロモルフィックプロセッサを提案する。
提案手法は,生体模倣型ニューロモルフィックシステム,低消費電力,低遅延推論処理アプリケーションの開発を可能にする。
論文 参考訳(メタデータ) (2022-01-19T09:26:34Z) - Astrocytes mediate analogous memory in a multi-layer neuron-astrocytic
network [52.77024349608834]
情報の一部が数秒間堅牢な活動パターンとして維持され、他の刺激が来なければ完全に消滅することを示す。
この種の短期記憶は、操作情報を数秒保存し、次のパターンとの重複を避けるために完全に忘れてしまう。
任意のパターンをロードし、一定の間隔で保存し、適切な手掛かりパターンを入力に適用した場合に検索する方法について示す。
論文 参考訳(メタデータ) (2021-08-31T16:13:15Z) - Continuous Learning and Adaptation with Membrane Potential and
Activation Threshold Homeostasis [91.3755431537592]
本稿では,MPATH(Membrane Potential and Activation Threshold Homeostasis)ニューロンモデルを提案する。
このモデルにより、ニューロンは入力が提示されたときに自動的に活性を調節することで動的平衡の形式を維持することができる。
実験は、モデルがその入力から適応し、継続的に学習する能力を示す。
論文 参考訳(メタデータ) (2021-04-22T04:01:32Z) - The Neural Coding Framework for Learning Generative Models [91.0357317238509]
本稿では,脳の予測処理理論に触発された新しい神経生成モデルを提案する。
同様に、私たちの生成モデルにおける人工ニューロンは、隣接するニューロンが何をするかを予測し、予測が現実にどの程度一致するかに基づいてパラメータを調整します。
論文 参考訳(メタデータ) (2020-12-07T01:20:38Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。