論文の概要: Plasticity Neural Network Based on Astrocytic Influence at Critical
Periods, Synaptic Competition and Compensation by Current and Mnemonic Brain
Plasticity and Synapse Formation
- arxiv url: http://arxiv.org/abs/2203.11740v1
- Date: Sat, 19 Mar 2022 14:38:54 GMT
- ステータス: 処理完了
- システム内更新日: 2022-03-26 17:41:49.243560
- Title: Plasticity Neural Network Based on Astrocytic Influence at Critical
Periods, Synaptic Competition and Compensation by Current and Mnemonic Brain
Plasticity and Synapse Formation
- Title(参考訳): 臨界時の天文学的影響に基づく塑性ニューラルネットワーク, シナプス競争と電流およびMnの脳塑性による補償とシナプス形成
- Authors: Jun-Bo Tao, Bai-Qing Sun, Wei-Dong Zhu, Shi-You Qu, Ling-Kun Chen,
Jia-Qiang Li, Chong Wu, Yu Xiong, Jiaxuan Zhou
- Abstract要約: RNNのフレームに基づいて,PNNのモデル構築,公式導出,アルゴリズムテストを行った。
提案した課題は、モデル構築、公式導出、アルゴリズムテストによって、神経科学と脳認知の促進が達成されたかどうかである。
- 参考スコア(独自算出の注目度): 7.8787868286474
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Based on the RNN frame, we accomplished the model construction, formula
derivation and algorithm testing for PNN. We elucidated the mechanism of PNN
based on the latest MIT research on synaptic compensation, and also grounded
our study on the basis of findings of the Stanford research, which suggested
that synapse formation is important for competition in dendrite morphogenesis.
The influence of astrocytic impacts on brain plasticity and synapse formation
is an important mechanism of our Neural Network at critical periods or the end
of critical periods.In the model for critical periods, the hypothesis is that
the best brain plasticity so far affects current brain plasticity and the best
synapse formation so far affects current synapse formation.Furthermore, PNN
takes into account the mnemonic gradient informational synapse formation, and
brain plasticity and synapse formation change frame of NN is a new method of
Deep Learning.The question we proposed is whether the promotion of neuroscience
and brain cognition was achieved by model construction, formula derivation or
algorithm testing. We resorted to the Artificial Neural Network (ANN),
evolutionary computation and other numerical methods for hypotheses, possible
explanations and rules, rather than only biological tests which include
cutting-edge imaging and genetic tools.And it has no ethics of animal testing.
- Abstract(参考訳): RNNのフレームに基づいて,PNNのモデル構築,公式導出,アルゴリズムテストを行った。
我々は,最新のMITによるシナプス補償研究に基づいて,PNNのメカニズムを解明し,スタンフォード大学の研究成果に基づいて,シナプス形成が樹状突起形態形成の競争において重要であることを示唆した。
The influence of astrocytic impacts on brain plasticity and synapse formation is an important mechanism of our Neural Network at critical periods or the end of critical periods.In the model for critical periods, the hypothesis is that the best brain plasticity so far affects current brain plasticity and the best synapse formation so far affects current synapse formation.Furthermore, PNN takes into account the mnemonic gradient informational synapse formation, and brain plasticity and synapse formation change frame of NN is a new method of Deep Learning.The question we proposed is whether the promotion of neuroscience and brain cognition was achieved by model construction, formula derivation or algorithm testing.
我々は、最先端の画像や遺伝ツールを含む生物学的テストだけでなく、ニューラルネットワーク(ANN)、進化的計算、仮説、可能な説明や規則などの数値的な手法を活用しました。
関連論文リスト
- Towards a Foundation Model for Brain Age Prediction using coVariance
Neural Networks [102.75954614946258]
時間的年齢に関する脳年齢の増加は、神経変性と認知低下に対する脆弱性の増加を反映している。
NeuroVNNは、時系列年齢を予測するために、健康な人口の回帰モデルとして事前訓練されている。
NeuroVNNは、脳の年齢に解剖学的解釈性を加え、任意の脳のアトラスに従って計算されたデータセットへの転移を可能にする「スケールフリー」特性を持つ。
論文 参考訳(メタデータ) (2024-02-12T14:46:31Z) - Brain-Inspired Machine Intelligence: A Survey of
Neurobiologically-Plausible Credit Assignment [65.268245109828]
本稿では,神経生物学にインスパイアされた,あるいは動機付けられた人工ニューラルネットワークにおける信用割当を行うアルゴリズムについて検討する。
我々は、脳にインスパイアされた学習スキームを6つの一般的なファミリーにまとめ、これらを誤りのバックプロパゲーションの文脈で検討する。
本研究の成果は,神経ミメティックシステムとその構成的学習プロセスの今後の発展を促進することを目的としている。
論文 参考訳(メタデータ) (2023-12-01T05:20:57Z) - Learning with Chemical versus Electrical Synapses -- Does it Make a
Difference? [61.85704286298537]
バイオインスパイアされたニューラルネットワークは、ニューラルネットワークの理解を深め、AIシステムの最先端を改善する可能性がある。
我々は,光リアルな自律走行シミュレータを用いて自律車線維持実験を行い,その性能を種々の条件下で評価する。
論文 参考訳(メタデータ) (2023-11-21T13:07:20Z) - Control of synaptic plasticity in neural networks [0.0]
脳は非線形で高頻度のリカレントニューラルネットワーク(RNN)である
提案するフレームワークは,エラーフィードバックループシステムをシミュレートする新しいNNベースのアクタ批判手法を含む。
論文 参考訳(メタデータ) (2023-03-10T13:36:31Z) - Modeling Associative Plasticity between Synapses to Enhance Learning of
Spiking Neural Networks [4.736525128377909]
Spiking Neural Networks(SNN)は、ニューラルネットワークの第3世代であり、ニューロモルフィックハードウェア上でエネルギー効率の高い実装を可能にする。
本稿では,シナプス間の結合可塑性をモデル化し,頑健で効果的な学習機構を提案する。
本手法は静的および最先端のニューロモルフィックデータセット上での優れた性能を実現する。
論文 参考訳(メタデータ) (2022-07-24T06:12:23Z) - Neural Language Models are not Born Equal to Fit Brain Data, but
Training Helps [75.84770193489639]
音声ブックを聴く被験者の機能的磁気共鳴イメージングの時間軸予測に及ぼすテスト損失,トレーニングコーパス,モデルアーキテクチャの影響について検討した。
各モデルの訓練されていないバージョンは、同じ単語をまたいだ脳反応の類似性を捉えることで、脳内のかなりの量のシグナルをすでに説明していることがわかりました。
ニューラル言語モデルを用いたヒューマン・ランゲージ・システムの説明を目的とした今後の研究の実践を提案する。
論文 参考訳(メタデータ) (2022-07-07T15:37:17Z) - A Spiking Neuron Synaptic Plasticity Model Optimized for Unsupervised
Learning [0.0]
スパイキングニューラルネットワーク(SNN)は、教師なし、教師なし、強化学習など、あらゆる種類の学習タスクを実行するための視点ベースとして考えられている。
SNNでの学習は、シナプス前およびシナプス後ニューロンの活動に依存するシナプス重みのダイナミクスを決定する規則であるシナプス可塑性によって実施される。
論文 参考訳(メタデータ) (2021-11-12T15:26:52Z) - Mapping and Validating a Point Neuron Model on Intel's Neuromorphic
Hardware Loihi [77.34726150561087]
インテルの第5世代ニューロモルフィックチップ「Loihi」の可能性について検討する。
Loihiは、脳内のニューロンをエミュレートするスパイキングニューラルネットワーク(SNN)という新しいアイデアに基づいている。
Loihiは従来のシミュレーションを非常に効率的に再現し、ネットワークが大きくなるにつれて、時間とエネルギーの両方のパフォーマンスにおいて顕著にスケールする。
論文 参考訳(メタデータ) (2021-09-22T16:52:51Z) - SpikePropamine: Differentiable Plasticity in Spiking Neural Networks [0.0]
スパイキングニューラルネットワーク(SNN)におけるシナプス可塑性と神経調節シナプス可塑性のダイナミクスを学習するための枠組みを導入する。
異なる可塑性で強化されたSNNは、時間的学習課題の集合を解決するのに十分であることを示す。
これらのネットワークは、高次元のロボット学習タスクで移動を生成できることも示されている。
論文 参考訳(メタデータ) (2021-06-04T19:29:07Z) - The Neural Coding Framework for Learning Generative Models [91.0357317238509]
本稿では,脳の予測処理理論に触発された新しい神経生成モデルを提案する。
同様に、私たちの生成モデルにおける人工ニューロンは、隣接するニューロンが何をするかを予測し、予測が現実にどの程度一致するかに基づいてパラメータを調整します。
論文 参考訳(メタデータ) (2020-12-07T01:20:38Z) - Backpropamine: training self-modifying neural networks with
differentiable neuromodulated plasticity [14.19992298135814]
このような神経修飾塑性を持つ人工ニューラルネットワークは、勾配降下でトレーニングできることを初めて示す。
神経変調塑性は、強化学習と教師あり学習の両方においてニューラルネットワークの性能を向上させることを示す。
論文 参考訳(メタデータ) (2020-02-24T23:19:17Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。