論文の概要: What Neuroscience Can Teach AI About Learning in Continuously Changing Environments
- arxiv url: http://arxiv.org/abs/2507.02103v1
- Date: Wed, 02 Jul 2025 19:30:57 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-07-04 15:37:15.096132
- Title: What Neuroscience Can Teach AI About Learning in Continuously Changing Environments
- Title(参考訳): 連続的に変化する環境における学習について、神経科学がAIに教えることは何か
- Authors: Daniel Durstewitz, Bruno Averbeck, Georgia Koppe,
- Abstract要約: 動物は環境の変化に常に適応する。
AIは神経科学から学ぶことができるか?
このパースペクティブは、AIにおける連続的および文脈内学習に関する文献と、ルール、報酬確率、結果のシフトを伴う行動タスクに関する学習の神経科学を統合することで、この問題を探求する。
- 参考スコア(独自算出の注目度): 6.3111399332851414
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Modern AI models, such as large language models, are usually trained once on a huge corpus of data, potentially fine-tuned for a specific task, and then deployed with fixed parameters. Their training is costly, slow, and gradual, requiring billions of repetitions. In stark contrast, animals continuously adapt to the ever-changing contingencies in their environments. This is particularly important for social species, where behavioral policies and reward outcomes may frequently change in interaction with peers. The underlying computational processes are often marked by rapid shifts in an animal's behaviour and rather sudden transitions in neuronal population activity. Such computational capacities are of growing importance for AI systems operating in the real world, like those guiding robots or autonomous vehicles, or for agentic AI interacting with humans online. Can AI learn from neuroscience? This Perspective explores this question, integrating the literature on continual and in-context learning in AI with the neuroscience of learning on behavioral tasks with shifting rules, reward probabilities, or outcomes. We will outline an agenda for how specifically insights from neuroscience may inform current developments in AI in this area, and - vice versa - what neuroscience may learn from AI, contributing to the evolving field of NeuroAI.
- Abstract(参考訳): 大規模言語モデルのような現代のAIモデルは、通常、巨大なデータコーパスで一度トレーニングされ、特定のタスクのために微調整され、固定されたパラメータでデプロイされる。
彼らのトレーニングは費用がかかり、遅く、徐々に進み、何十億もの繰り返しを必要とします。
対照的に、動物は環境の変化に継続的に適応する。
これは社会種にとって特に重要であり、行動方針や報奨結果が仲間との交流において頻繁に変化することがある。
基礎となる計算過程は、しばしば動物の行動の急激な変化と、むしろ神経細胞の集団活動の急激な変化によって特徴づけられる。
このような計算能力は、ロボットや自動運転車を誘導するロボットのような現実世界で動作するAIシステムや、オンラインで人間と対話するエージェントAIにとって、ますます重要になっている。
AIは神経科学から学ぶことができるか?
このパースペクティブは、AIにおける連続的および文脈内学習に関する文献と、ルール、報酬確率、結果のシフトを伴う行動タスクに関する学習の神経科学を統合することで、この問題を探求する。
我々は、この領域における、神経科学からの洞察が、現在のAIの発展にどのように影響を与えるか、また、その逆もまた、神経科学がAIから何を学び、進化するNeuroAIの分野に寄与するかを示すアジェンダを概説する。
関連論文リスト
- Neural Brain: A Neuroscience-inspired Framework for Embodied Agents [58.58177409853298]
大規模な言語モデルのような現在のAIシステムは、いまだに解体され続けており、物理的に世界と関わりが持てない。
この課題の核心は、人間のような適応性を持つエンボディエージェントを駆動するために設計された中枢知能システムであるNeural Brain(ニューラル・ブレイン)の概念である。
本稿では,2つの基本的な課題に対処する,エンボディエージェントのニューラルブレインの統一的枠組みを提案する。
論文 参考訳(メタデータ) (2025-05-12T15:05:34Z) - Semi-parametric Memory Consolidation: Towards Brain-like Deep Continual Learning [59.35015431695172]
本稿では,半パラメトリックメモリと覚醒・睡眠統合機構を統合したバイオミメティック連続学習フレームワークを提案する。
提案手法は,実世界の挑戦的連続学習シナリオにおいて,先行知識を維持しつつ,新しいタスクにおけるディープニューラルネットワークの高性能維持を可能にする。
論文 参考訳(メタデータ) (2025-04-20T19:53:13Z) - NeuroChat: A Neuroadaptive AI Chatbot for Customizing Learning Experiences [20.413397262021064]
NeuroChatは、リアルタイムEEGベースのエンゲージメントトラッキングと生成AIを統合する、概念実証型ニューロアダプティブAIチューターである。
以上の結果から,NeuroChatは認知的・主観的エンゲージメントを高めるが,学習結果に即時的な影響は示さないことが示唆された。
論文 参考訳(メタデータ) (2025-03-10T17:57:20Z) - Artificial Intelligence without Restriction Surpassing Human Intelligence with Probability One: Theoretical Insight into Secrets of the Brain with AI Twins of the Brain [20.956507640605093]
人工知能(AI)は、将来的には人間の知性を上回るように進化するのか?
本稿では、理論上、神経科学のための新しい細胞レベルのAI技術を持つ新しいAIツインが、脳とその機能システムに近似できることを示す。
本稿では,70年前にFrank Rosenblatt氏がAIの可能性について行った予想の有効性を間接的に証明する。
論文 参考訳(メタデータ) (2024-12-04T13:17:44Z) - NeuroAI for AI Safety [2.0243003325958253]
一般知能を持つ唯一のエージェントは人間である。
神経科学は、現在未調査で未使用の技術的AI安全性の重要な鍵を握るかもしれない。
我々は神経科学に触発されたAI安全性へのいくつかの道のりを強調し、批判的に評価する。
論文 参考訳(メタデータ) (2024-11-27T17:18:51Z) - Bridging Neuroscience and AI: Environmental Enrichment as a Model for Forward Knowledge Transfer [0.0]
本研究では, 環境富化(EE)が, 転送研究の生物学的モデルとして利用できることを示唆する。
EEは、認知、社会的、運動、感覚刺激を高める動物研究を指す。
人工ニューラルネットワーク(ANN)が、豊かな経験の後の神経変化を予測するためにどのように使用できるかについて議論する。
論文 参考訳(メタデータ) (2024-05-12T14:33:50Z) - Hebbian Learning based Orthogonal Projection for Continual Learning of
Spiking Neural Networks [74.3099028063756]
我々は,側方接続とヘビアン学習に基づくニューラル操作を用いた新しい手法を開発した。
我々は,反復する側方接続におけるヘビアン学習と反ヘビアン学習が,神経活動の主部分空間を効果的に抽出できることを示した。
我々の手法は、ほとんど忘れることなくニューラルネットワークをスパイクするために一貫して解決する。
論文 参考訳(メタデータ) (2024-02-19T09:29:37Z) - Generative AI-based closed-loop fMRI system [0.41942958779358674]
DecNefGANは、生成的敵系と神経強化モデルを組み合わせた新しいフレームワークである。
これは、人間の脳がどのように反応し、生成的AIの潜在的な影響に対処するかを解明するのに役立つ。
論文 参考訳(メタデータ) (2024-01-30T04:40:49Z) - World Models and Predictive Coding for Cognitive and Developmental
Robotics: Frontiers and Challenges [51.92834011423463]
我々は世界モデルと予測符号化の2つの概念に焦点を当てる。
神経科学において、予測符号化は、脳がその入力を継続的に予測し、その環境における自身のダイナミクスと制御行動のモデル化に適応するように提案する。
論文 参考訳(メタデータ) (2023-01-14T06:38:14Z) - Artificial Neural Variability for Deep Learning: On Overfitting, Noise
Memorization, and Catastrophic Forgetting [135.0863818867184]
人工ニューラルネットワーク(ANV)は、ニューラルネットワークが自然のニューラルネットワークからいくつかの利点を学ぶのに役立つ。
ANVは、トレーニングデータと学習モデルの間の相互情報の暗黙の正則化として機能する。
過度にフィットし、ノイズの記憶をラベル付けし、無視できるコストで破滅的な忘れを効果的に軽減することができる。
論文 参考訳(メタデータ) (2020-11-12T06:06:33Z) - Future Trends for Human-AI Collaboration: A Comprehensive Taxonomy of
AI/AGI Using Multiple Intelligences and Learning Styles [95.58955174499371]
我々は、複数の人間の知性と学習スタイルの様々な側面を説明し、様々なAI問題領域に影響を及ぼす可能性がある。
未来のAIシステムは、人間のユーザと互いにコミュニケーションするだけでなく、知識と知恵を効率的に交換できる。
論文 参考訳(メタデータ) (2020-08-07T21:00:13Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。