論文の概要: CCN GAC Workshop: Issues with learning in biological recurrent neural
networks
- arxiv url: http://arxiv.org/abs/2105.05382v1
- Date: Wed, 12 May 2021 00:59:40 GMT
- ステータス: 処理完了
- システム内更新日: 2021-05-13 23:44:27.570474
- Title: CCN GAC Workshop: Issues with learning in biological recurrent neural
networks
- Title(参考訳): ccn gacワークショップ: 生物リカレントニューラルネットワークにおける学習の課題
- Authors: Luke Y. Prince, Ellen Boven, Roy Henha Eyono, Arna Ghosh, Joe
Pemberton, Franz Scherr, Claudia Clopath, Rui Ponte Costa, Wolfgang Maass,
Blake A. Richards, Cristina Savin, Katharina Anna Wilmes
- Abstract要約: この視点は、2020年にCCN(Computational Cognitive Neuroscience)カンファレンスが主催するGAC(Generative Adversarial Collaboration)シリーズのワークショップを通じて実現しました。
生物学的学習に関する一般的な仮定と実験神経科学からの対応する発見について簡単にレビューします。
ワークショップでは、シナプス可塑性、ニューラルサーキット、理論-実験分割、目的関数といった重要な課題について概説する。
- 参考スコア(独自算出の注目度): 11.725061054663872
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: This perspective piece came about through the Generative Adversarial
Collaboration (GAC) series of workshops organized by the Computational
Cognitive Neuroscience (CCN) conference in 2020. We brought together a number
of experts from the field of theoretical neuroscience to debate emerging issues
in our understanding of how learning is implemented in biological recurrent
neural networks. Here, we will give a brief review of the common assumptions
about biological learning and the corresponding findings from experimental
neuroscience and contrast them with the efficiency of gradient-based learning
in recurrent neural networks commonly used in artificial intelligence. We will
then outline the key issues discussed in the workshop: synaptic plasticity,
neural circuits, theory-experiment divide, and objective functions. Finally, we
conclude with recommendations for both theoretical and experimental
neuroscientists when designing new studies that could help to bring clarity to
these issues.
- Abstract(参考訳): この視点のピースは、2020年にcomputation cognitive neuroscience (ccn) conferenceによって組織されたgenerative adversarial collaboration (gac)シリーズを通じて生まれた。
我々は、生物学のリカレントニューラルネットワークで学習がどのように実装されているかを理解するために、理論神経科学の分野から多くの専門家を集めました。
本稿では,生物学習に関する一般的な仮定と実験神経科学から得られた知見の概観を概観し,人工知能で一般的に用いられる反復型ニューラルネットワークにおける勾配型学習の効率と対比する。
ワークショップでは、シナプス可塑性、ニューラルサーキット、理論-実験分割、目的関数といった重要な課題について概説する。
最後に、これらの問題に明確性をもたらす新しい研究を設計する際に、理論的および実験的神経科学者の両方に推奨する。
関連論文リスト
- Brain-like Functional Organization within Large Language Models [58.93629121400745]
人間の脳は長い間人工知能(AI)の追求にインスピレーションを与えてきた
最近のニューロイメージング研究は、人工ニューラルネットワーク(ANN)の計算的表現と、人間の脳の刺激に対する神経反応との整合性の説得力のある証拠を提供する。
本研究では、人工ニューロンのサブグループと機能的脳ネットワーク(FBN)を直接結合することで、このギャップを埋める。
このフレームワークはANサブグループをFBNにリンクし、大きな言語モデル(LLM)内で脳に似た機能的組織を記述できる。
論文 参考訳(メタデータ) (2024-10-25T13:15:17Z) - Enhancing learning in spiking neural networks through neuronal heterogeneity and neuromodulatory signaling [52.06722364186432]
人工ニューラルネットワーク(ANN)の強化のための生物学的インフォームドフレームワークを提案する。
提案したデュアルフレームアプローチは、多様なスパイキング動作をエミュレートするためのスパイキングニューラルネットワーク(SNN)の可能性を強調している。
提案手法は脳にインスパイアされたコンパートメントモデルとタスク駆動型SNN, バイオインスピレーション, 複雑性を統合している。
論文 参考訳(メタデータ) (2024-07-05T14:11:28Z) - Hebbian Learning based Orthogonal Projection for Continual Learning of
Spiking Neural Networks [74.3099028063756]
我々は,側方接続とヘビアン学習に基づくニューラル操作を用いた新しい手法を開発した。
我々は,反復する側方接続におけるヘビアン学習と反ヘビアン学習が,神経活動の主部分空間を効果的に抽出できることを示した。
我々の手法は、ほとんど忘れることなくニューラルネットワークをスパイクするために一貫して解決する。
論文 参考訳(メタデータ) (2024-02-19T09:29:37Z) - Probing Biological and Artificial Neural Networks with Task-dependent
Neural Manifolds [12.037840490243603]
本稿では,ニューラルネットワークの内部機構について,ニューラル集団幾何学のレンズを用いて検討する。
学習目的の違いが,これらのモデルの組織戦略の違いにどのように影響するかを定量的に評価する。
これらの分析は、ニューラルネットワークにおける機械的および規範的理論を神経集団幾何学を通してブリッジする強力な方向を示す。
論文 参考訳(メタデータ) (2023-12-21T20:40:51Z) - Brain-Inspired Machine Intelligence: A Survey of
Neurobiologically-Plausible Credit Assignment [65.268245109828]
本稿では,神経生物学にインスパイアされた,あるいは動機付けられた人工ニューラルネットワークにおける信用割当を行うアルゴリズムについて検討する。
我々は、脳にインスパイアされた学習スキームを6つの一般的なファミリーにまとめ、これらを誤りのバックプロパゲーションの文脈で検討する。
本研究の成果は,神経ミメティックシステムとその構成的学習プロセスの今後の発展を促進することを目的としている。
論文 参考訳(メタデータ) (2023-12-01T05:20:57Z) - Neural Networks from Biological to Artificial and Vice Versa [6.85316573653194]
この論文の主な貢献は、死んだニューロンが人工ニューラルネットワーク(ANN)の性能に与える影響についての研究である。
本研究の目的は, 生物学的領域における発見の潜在的適用性を評価することであり, 期待される結果は, 神経疾患に対する効果的な治療戦略の開発に重要な影響を及ぼす可能性がある。
論文 参考訳(メタデータ) (2023-06-05T17:30:07Z) - Contrastive-Signal-Dependent Plasticity: Self-Supervised Learning in Spiking Neural Circuits [61.94533459151743]
この研究は、スパイキングネットワークのシナプスを調整するための神経生物学的に動機づけられたスキームを設計することの課題に対処する。
我々の実験シミュレーションは、繰り返しスパイクネットワークを訓練する際、他の生物学的に証明可能なアプローチに対して一貫した優位性を示す。
論文 参考訳(メタデータ) (2023-03-30T02:40:28Z) - Constraints on the design of neuromorphic circuits set by the properties
of neural population codes [61.15277741147157]
脳内では、情報はコード化され、伝達され、行動を伝えるために使用される。
ニューロモルフィック回路は、脳内のニューロンの集団が使用するものと互換性のある方法で情報を符号化する必要がある。
論文 参考訳(メタデータ) (2022-12-08T15:16:04Z) - Deep Reinforcement Learning and its Neuroscientific Implications [19.478332877763417]
強力な人工知能の出現は、神経科学の新しい研究方向を定義している。
深層強化学習(Deep RL)は、学習、表現、意思決定の間の相互作用を研究するための枠組みを提供する。
Deep RLは、新しい研究ツールセットと、幅広い新しい仮説を提供する。
論文 参考訳(メタデータ) (2020-07-07T19:27:54Z) - Artificial neural networks for neuroscientists: A primer [4.771833920251869]
ニューラルネットワーク(ANN)は、神経科学に注目が集まる機械学習において必須のツールである。
この教養的なプライマーでは、ANNを導入し、神経科学的な問題を研究するためにどのように成果を上げてきたかを実証する。
この数学的枠組みを神経生物学に近づけることに焦点をあてて、ANNの分析、構造、学習のカスタマイズ方法について詳述する。
論文 参考訳(メタデータ) (2020-06-01T15:08:42Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。