論文の概要: Neuroplasticity in Artificial Intelligence -- An Overview and Inspirations on Drop In \& Out Learning
- arxiv url: http://arxiv.org/abs/2503.21419v1
- Date: Thu, 27 Mar 2025 12:09:04 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-03-28 12:53:06.512171
- Title: Neuroplasticity in Artificial Intelligence -- An Overview and Inspirations on Drop In \& Out Learning
- Title(参考訳): 人工知能における神経可塑性 : ドロップ・イン・アンド・アウト・ラーニングの概観とインスピレーション
- Authors: Yupei Li, Manuel Milling, Björn W. Schuller,
- Abstract要約: 我々は、神経新生、神経アポトーシス、神経可塑性が将来のAI進歩にどのように影響するかを探求する。
神経新生と再考のためのドロップイン'の概念を導入し,神経アポトーシスのための構造解析を行った。
我々は、この学際領域におけるより大きな研究努力を提唱することで締めくくる。
- 参考スコア(独自算出の注目度): 42.086960710257564
- License:
- Abstract: Artificial Intelligence (AI) has achieved new levels of performance and spread in public usage with the rise of deep neural networks (DNNs). Initially inspired by human neurons and their connections, NNs have become the foundation of AI models for many advanced architectures. However, some of the most integral processes in the human brain, particularly neurogenesis and neuroplasticity in addition to the more spread neuroapoptosis have largely been ignored in DNN architecture design. Instead, contemporary AI development predominantly focuses on constructing advanced frameworks, such as large language models, which retain a static structure of neural connections during training and inference. In this light, we explore how neurogenesis, neuroapoptosis, and neuroplasticity can inspire future AI advances. Specifically, we examine analogous activities in artificial NNs, introducing the concepts of ``dropin'' for neurogenesis and revisiting ``dropout'' and structural pruning for neuroapoptosis. We additionally suggest neuroplasticity combining the two for future large NNs in ``life-long learning'' settings following the biological inspiration. We conclude by advocating for greater research efforts in this interdisciplinary domain and identifying promising directions for future exploration.
- Abstract(参考訳): 人工知能(AI)は、ディープニューラルネットワーク(DNN)の台頭とともに、新たなレベルのパフォーマンスを達成し、公共利用に広まりました。
当初、人間のニューロンとその接続にインスパイアされたNNは、多くの高度なアーキテクチャのためのAIモデルの基盤となった。
しかし、人間の脳内で最も重要な過程、特に神経新生と神経可塑性は、より広範な神経アポトーシスに加えて、DNNアーキテクチャーの設計において無視されている。
代わりに、現代のAI開発は主に、トレーニングと推論の間、ニューラルネットワークの静的構造を保持する大きな言語モデルのような高度なフレームワークの構築に焦点を当てている。
この光の中で、神経新生、神経アポトーシス、神経可塑性が将来のAI進歩にどのように影響するかを探求する。
具体的には, 人工NNにおける類似活動について検討し, 神経新生のための 'dropin' の概念を導入し, 「dropout' を再考し, 神経アポトーシスのための構造解析を行った。
さらに, 生物のインスピレーションを受けて, 「生涯学習」 という設定で, これら2つの組み合わせを将来の大規模NNに提案する。
我々は、この学際領域におけるさらなる研究の取り組みを提唱し、将来的な探査の道筋を定め、結論を下す。
関連論文リスト
- Brain-like Functional Organization within Large Language Models [58.93629121400745]
人間の脳は長い間人工知能(AI)の追求にインスピレーションを与えてきた
最近のニューロイメージング研究は、人工ニューラルネットワーク(ANN)の計算的表現と、人間の脳の刺激に対する神経反応との整合性の説得力のある証拠を提供する。
本研究では、人工ニューロンのサブグループと機能的脳ネットワーク(FBN)を直接結合することで、このギャップを埋める。
このフレームワークはANサブグループをFBNにリンクし、大きな言語モデル(LLM)内で脳に似た機能的組織を記述できる。
論文 参考訳(メタデータ) (2024-10-25T13:15:17Z) - Enhancing learning in spiking neural networks through neuronal heterogeneity and neuromodulatory signaling [52.06722364186432]
人工ニューラルネットワーク(ANN)の強化のための生物学的インフォームドフレームワークを提案する。
提案したデュアルフレームアプローチは、多様なスパイキング動作をエミュレートするためのスパイキングニューラルネットワーク(SNN)の可能性を強調している。
提案手法は脳にインスパイアされたコンパートメントモデルとタスク駆動型SNN, バイオインスピレーション, 複雑性を統合している。
論文 参考訳(メタデータ) (2024-07-05T14:11:28Z) - Brain-Inspired Machine Intelligence: A Survey of
Neurobiologically-Plausible Credit Assignment [65.268245109828]
本稿では,神経生物学にインスパイアされた,あるいは動機付けられた人工ニューラルネットワークにおける信用割当を行うアルゴリズムについて検討する。
我々は、脳にインスパイアされた学習スキームを6つの一般的なファミリーにまとめ、これらを誤りのバックプロパゲーションの文脈で検討する。
本研究の成果は,神経ミメティックシステムとその構成的学習プロセスの今後の発展を促進することを目的としている。
論文 参考訳(メタデータ) (2023-12-01T05:20:57Z) - A Neuro-mimetic Realization of the Common Model of Cognition via Hebbian
Learning and Free Energy Minimization [55.11642177631929]
大規模なニューラル生成モデルは、意味的に豊富なテキストのパスを合成したり、複雑な画像を生成することができる。
我々はコモン・モデル・オブ・コグニティブ・ニューラル・ジェネレーティブ・システムについて論じる。
論文 参考訳(メタデータ) (2023-10-14T23:28:48Z) - Towards Self-Assembling Artificial Neural Networks through Neural
Developmental Programs [10.524752369156339]
生物学的神経系は、現在の人工ニューラルネットワークと根本的に異なる方法で生成される。
対照的に、生物学的神経系は動的自己組織化過程を通じて成長する。
論文 参考訳(メタデータ) (2023-07-17T01:58:52Z) - Contrastive-Signal-Dependent Plasticity: Self-Supervised Learning in Spiking Neural Circuits [61.94533459151743]
この研究は、スパイキングネットワークのシナプスを調整するための神経生物学的に動機づけられたスキームを設計することの課題に対処する。
我々の実験シミュレーションは、繰り返しスパイクネットワークを訓練する際、他の生物学的に証明可能なアプローチに対して一貫した優位性を示す。
論文 参考訳(メタデータ) (2023-03-30T02:40:28Z) - Towards NeuroAI: Introducing Neuronal Diversity into Artificial Neural
Networks [20.99799416963467]
ヒトの脳では、神経の多様性はあらゆる生物学的知的行動に有効である。
本稿では,まず,生物ニューロンの多様性と情報伝達・処理の特徴について論じる。
論文 参考訳(メタデータ) (2023-01-23T02:23:45Z) - An Introductory Review of Spiking Neural Network and Artificial Neural
Network: From Biological Intelligence to Artificial Intelligence [4.697611383288171]
生物学的解釈可能性を持つスパイクニューラルネットワークは、徐々に注目を集めている。
このレビューは、さまざまな研究者を惹きつけ、脳にインスパイアされた知性と人工知能の開発を進めたいと考えている。
論文 参考訳(メタデータ) (2022-04-09T09:34:34Z) - A brain basis of dynamical intelligence for AI and computational
neuroscience [0.0]
より多くの脳のような能力は、新しい理論、モデル、および人工学習システムを設計する方法を要求するかもしれない。
本稿は,第6回US/NIH BRAIN Initiative Investigators Meetingにおける動的神経科学と機械学習に関するシンポジウムに触発されたものです。
論文 参考訳(メタデータ) (2021-05-15T19:49:32Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。