論文の概要: Human-like Cognitive Generalization for Large Models via Brain-in-the-loop Supervision
- arxiv url: http://arxiv.org/abs/2505.09085v1
- Date: Wed, 14 May 2025 02:39:10 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-05-15 21:44:09.353261
- Title: Human-like Cognitive Generalization for Large Models via Brain-in-the-loop Supervision
- Title(参考訳): ループ・イン・ザ・ループ・スーパービジョンによる大型モデルに対するヒューマンライクな認知一般化
- Authors: Jiaxuan Chen, Yu Qi, Yueming Wang, Gang Pan,
- Abstract要約: 脳内学習が人間の概念構造をディープニューラルネットワーク(DNN)に効果的に伝達できることを示す。
実験結果から,認知能力の向上が課題の達成に寄与することが示唆された。
これらの結果から,大規模モデルの複雑な認知能力を効果的に増強できる可能性が示唆された。
- 参考スコア(独自算出の注目度): 22.553688605475333
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Recent advancements in deep neural networks (DNNs), particularly large-scale language models, have demonstrated remarkable capabilities in image and natural language understanding. Although scaling up model parameters with increasing volume of training data has progressively improved DNN capabilities, achieving complex cognitive abilities - such as understanding abstract concepts, reasoning, and adapting to novel scenarios, which are intrinsic to human cognition - remains a major challenge. In this study, we show that brain-in-the-loop supervised learning, utilizing a small set of brain signals, can effectively transfer human conceptual structures to DNNs, significantly enhancing their comprehension of abstract and even unseen concepts. Experimental results further indicate that the enhanced cognitive capabilities lead to substantial performance gains in challenging tasks, including few-shot/zero-shot learning and out-of-distribution recognition, while also yielding highly interpretable concept representations. These findings highlight that human-in-the-loop supervision can effectively augment the complex cognitive abilities of large models, offering a promising pathway toward developing more human-like cognitive abilities in artificial systems.
- Abstract(参考訳): 近年のディープニューラルネットワーク(DNN)、特に大規模言語モデルの発展は、画像や自然言語理解において顕著な能力を示している。
トレーニングデータの量の増加によるモデルパラメータのスケールアップは、DNN能力の向上が進んでいるが、抽象概念の理解、推論、人間の認知に固有の新しいシナリオへの適応など、複雑な認知能力の実現は、依然として大きな課題である。
本研究では,脳内脳制御学習が脳信号の小さなセットを利用して,人間の概念構造をDNNに効果的に伝達し,抽象的,さらには目に見えない概念の理解を著しく向上させることができることを示す。
実験の結果、認知能力の強化は、少数のショット/ゼロショット学習やアウト・オブ・ディストリビューション認識を含む課題において大きなパフォーマンス向上をもたらし、同時に高い解釈可能な概念表現をもたらすことが示唆された。
これらの知見は、ループ内の人間監督が、大規模モデルの複雑な認知能力を効果的に増強し、人工システムにおいてより人間的な認知能力を開発するための、有望な道筋を提供することを示している。
関連論文リスト
- Brain-inspired AI Agent: The Way Towards AGI [5.867107330135988]
脳にインスパイアされたAIの研究者たちは、人間の脳の動作メカニズムからインスピレーションを求め、その機能的ルールをインテリジェントなモデルに再現することを目指している。
そこで我々は,脳にインスパイアされたAIエージェントの概念を提案し,比較的実現可能でエージェント互換な皮質領域機能を抽出する方法を分析した。
これらの構造をエージェントに実装することで、人間の能力に似た基本的な認知知性を実現できる。
論文 参考訳(メタデータ) (2024-12-12T02:15:48Z) - Brain-like Functional Organization within Large Language Models [58.93629121400745]
人間の脳は長い間人工知能(AI)の追求にインスピレーションを与えてきた
最近のニューロイメージング研究は、人工ニューラルネットワーク(ANN)の計算的表現と、人間の脳の刺激に対する神経反応との整合性の説得力のある証拠を提供する。
本研究では、人工ニューロンのサブグループと機能的脳ネットワーク(FBN)を直接結合することで、このギャップを埋める。
このフレームワークはANサブグループをFBNにリンクし、大きな言語モデル(LLM)内で脳に似た機能的組織を記述できる。
論文 参考訳(メタデータ) (2024-10-25T13:15:17Z) - Enhancing learning in spiking neural networks through neuronal heterogeneity and neuromodulatory signaling [52.06722364186432]
人工ニューラルネットワーク(ANN)の強化のための生物学的インフォームドフレームワークを提案する。
提案したデュアルフレームアプローチは、多様なスパイキング動作をエミュレートするためのスパイキングニューラルネットワーク(SNN)の可能性を強調している。
提案手法は脳にインスパイアされたコンパートメントモデルとタスク駆動型SNN, バイオインスピレーション, 複雑性を統合している。
論文 参考訳(メタデータ) (2024-07-05T14:11:28Z) - Backprop-Free Reinforcement Learning with Active Neural Generative
Coding [84.11376568625353]
動的環境におけるエラー(バックプロップ)のバックプロパゲーションを伴わない行動駆動型生成モデルの学習のための計算フレームワークを提案する。
我々は、まばらな報酬でも機能するインテリジェントエージェントを開発し、推論として計画の認知理論からインスピレーションを得ている。
我々のエージェントの堅牢な性能は、神経推論と学習のためのバックプロップフリーアプローチがゴール指向の行動を促進するという有望な証拠を提供する。
論文 参考訳(メタデータ) (2021-07-10T19:02:27Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。