論文の概要: Lessons from Neuroscience for AI: How integrating Actions, Compositional Structure and Episodic Memory could enable Safe, Interpretable and Human-Like AI
- arxiv url: http://arxiv.org/abs/2512.22568v1
- Date: Sat, 27 Dec 2025 11:54:54 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-12-30 22:37:30.115974
- Title: Lessons from Neuroscience for AI: How integrating Actions, Compositional Structure and Episodic Memory could enable Safe, Interpretable and Human-Like AI
- Title(参考訳): AIのための神経科学からの教訓:アクション、構成構造、エピソード記憶を統合することで、安全、解釈可能、人間に似たAIを実現する
- Authors: Rajesh P. N. Rao, Vishwas Sathish, Linxing Preston Jiang, Matthew Bryan, Prashant Rangarajan,
- Abstract要約: ファンデーションモデルは、複数の抽象化スケールのアクションと、合成生成アーキテクチャとエピソディックメモリを統合するべきだ、と我々は主張する。
ファンデーションモデルにこれらの欠落したコンポーネントを追加することで、現在の障害に対処する方法について説明する。
私たちは、歴史的に実りある脳科学とAIのアイデアの交換が、安全で解釈可能な人間中心のAIへの道を開くのに役立ちます。
- 参考スコア(独自算出の注目度): 0.8481798330936976
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The phenomenal advances in large language models (LLMs) and other foundation models over the past few years have been based on optimizing large-scale transformer models on the surprisingly simple objective of minimizing next-token prediction loss, a form of predictive coding that is also the backbone of an increasingly popular model of brain function in neuroscience and cognitive science. However, current foundation models ignore three other important components of state-of-the-art predictive coding models: tight integration of actions with generative models, hierarchical compositional structure, and episodic memory. We propose that to achieve safe, interpretable, energy-efficient, and human-like AI, foundation models should integrate actions, at multiple scales of abstraction, with a compositional generative architecture and episodic memory. We present recent evidence from neuroscience and cognitive science on the importance of each of these components. We describe how the addition of these missing components to foundation models could help address some of their current deficiencies: hallucinations and superficial understanding of concepts due to lack of grounding, a missing sense of agency/responsibility due to lack of control, threats to safety and trustworthiness due to lack of interpretability, and energy inefficiency. We compare our proposal to current trends, such as adding chain-of-thought (CoT) reasoning and retrieval-augmented generation (RAG) to foundation models, and discuss new ways of augmenting these models with brain-inspired components. We conclude by arguing that a rekindling of the historically fruitful exchange of ideas between brain science and AI will help pave the way towards safe and interpretable human-centered AI.
- Abstract(参考訳): 大規模言語モデル(LLM)や他の基礎モデルのここ数年の驚くべき進歩は、神経科学や認知科学において、ますます人気が高まっている脳機能のバックボーンである予測符号化の形式である、次のトーケンの予測損失を最小化するという驚くほど単純な目的に基づいて、大規模トランスフォーマーモデルを最適化することに基づいている。
しかし、現在の基礎モデルは、生成モデルとのアクションの密結合、階層的な構成構造、エピソード記憶という、最先端の予測符号化モデルの他の3つの重要な要素を無視している。
我々は、安全、解釈可能、エネルギー効率、人間のようなAIを実現するために、基本モデルは、複数の抽象化スケールのアクションと、構成的生成アーキテクチャとエピソード記憶を統合するべきであることを提案する。
神経科学・認知科学の最近の知見として,これらの要素の重要性について述べる。
基礎モデルにこれらの欠落したコンポーネントを追加することで、基礎の欠如による概念の幻覚と表面的理解、制御の欠如によるエージェンシー/責任感の欠如、解釈可能性の欠如による安全性と信頼性への脅威、エネルギー非効率といった、現在の欠陥にどのように対処できるかを説明する。
我々は,この提案を,基礎モデルにチェーン・オブ・ソート(CoT)推論と検索強化生成(RAG)を追加するなど,現在の傾向と比較し,脳にインスパイアされたコンポーネントでこれらのモデルを拡張する新しい方法について議論する。
私たちは、歴史的に実りある脳科学とAIのアイデアの交換が、安全で解釈可能な人間中心のAIへの道を開くのに役立ちます。
関連論文リスト
- Bridging Brains and Machines: A Unified Frontier in Neuroscience, Artificial Intelligence, and Neuromorphic Systems [30.78088656917387]
この位置と調査論文は、神経科学、人工知能、ニューロモルフィックコンピューティングの出現する収束を識別する。
我々は,次世代AGIシステムの設計原則として,シナプスの可塑性,スパーススパイクに基づくコミュニケーション,マルチモーダルアソシエーションがいかに重要であるかを強調した。
我々は、シリコンの脳規模の効率を達成するために、フォン・ノイマンのボトルネックを破ることのできる新しい物理基板について論じる。
論文 参考訳(メタデータ) (2025-07-14T18:43:05Z) - Thinking Beyond Tokens: From Brain-Inspired Intelligence to Cognitive Foundations for Artificial General Intelligence and its Societal Impact [27.722167796617114]
本稿では,人工知能,認知神経科学,心理学,生成モデル,エージェントベースシステムの学際的合成について述べる。
我々は汎用知能のアーキテクチャと認知の基礎を分析し、モジュラー推論、永続記憶、マルチエージェント協調の役割を強調した。
我々は、人工知能への道の鍵となる科学的、技術的、倫理的課題を特定します。
論文 参考訳(メタデータ) (2025-07-01T16:52:25Z) - Neural Brain: A Neuroscience-inspired Framework for Embodied Agents [78.61382193420914]
大規模な言語モデルのような現在のAIシステムは、いまだに解体され続けており、物理的に世界と関わりが持てない。
この課題の核心は、人間のような適応性を持つエンボディエージェントを駆動するために設計された中枢知能システムであるNeural Brain(ニューラル・ブレイン)の概念である。
本稿では,2つの基本的な課題に対処する,エンボディエージェントのニューラルブレインの統一的枠組みを提案する。
論文 参考訳(メタデータ) (2025-05-12T15:05:34Z) - Advancing Brain Imaging Analysis Step-by-step via Progressive Self-paced Learning [0.5840945370755134]
適応型・進行型ペーシング・蒸留機構を応用したPSPD(Progressive Self-Paced Distillation)フレームワークを提案する。
我々は、アルツハイマー病神経画像イニシアチブ(ADNI)データセットを用いて、様々な畳み込みニューラルネットワークにおけるPSPDの有効性と適応性を検証する。
論文 参考訳(メタデータ) (2024-07-23T02:26:04Z) - MindBridge: A Cross-Subject Brain Decoding Framework [60.58552697067837]
脳の復号化は、獲得した脳信号から刺激を再構築することを目的としている。
現在、脳の復号化はモデルごとのオブジェクトごとのパラダイムに限られている。
我々は,1つのモデルのみを用いることで,オブジェクト間脳デコーディングを実現するMindBridgeを提案する。
論文 参考訳(メタデータ) (2024-04-11T15:46:42Z) - A Neuro-mimetic Realization of the Common Model of Cognition via Hebbian
Learning and Free Energy Minimization [55.11642177631929]
大規模なニューラル生成モデルは、意味的に豊富なテキストのパスを合成したり、複雑な画像を生成することができる。
我々はコモン・モデル・オブ・コグニティブ・ニューラル・ジェネレーティブ・システムについて論じる。
論文 参考訳(メタデータ) (2023-10-14T23:28:48Z) - WenLan 2.0: Make AI Imagine via a Multimodal Foundation Model [74.4875156387271]
我々は,膨大なマルチモーダル(視覚的・テキスト的)データを事前学習した新しい基礎モデルを開発する。
そこで本研究では,様々な下流タスクにおいて,最先端の成果が得られることを示す。
論文 参考訳(メタデータ) (2021-10-27T12:25:21Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。