論文の概要: Human-like Cognitive Generalization for Large Models via Brain-in-the-loop Supervision
- arxiv url: http://arxiv.org/abs/2505.09085v1
- Date: Wed, 14 May 2025 02:39:10 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-05-15 21:44:09.353261
- Title: Human-like Cognitive Generalization for Large Models via Brain-in-the-loop Supervision
- Title(参考訳): ループ・イン・ザ・ループ・スーパービジョンによる大型モデルに対するヒューマンライクな認知一般化
- Authors: Jiaxuan Chen, Yu Qi, Yueming Wang, Gang Pan,
- Abstract要約: 脳内学習が人間の概念構造をディープニューラルネットワーク(DNN)に効果的に伝達できることを示す。
実験結果から,認知能力の向上が課題の達成に寄与することが示唆された。
これらの結果から,大規模モデルの複雑な認知能力を効果的に増強できる可能性が示唆された。
- 参考スコア(独自算出の注目度): 22.553688605475333
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Recent advancements in deep neural networks (DNNs), particularly large-scale language models, have demonstrated remarkable capabilities in image and natural language understanding. Although scaling up model parameters with increasing volume of training data has progressively improved DNN capabilities, achieving complex cognitive abilities - such as understanding abstract concepts, reasoning, and adapting to novel scenarios, which are intrinsic to human cognition - remains a major challenge. In this study, we show that brain-in-the-loop supervised learning, utilizing a small set of brain signals, can effectively transfer human conceptual structures to DNNs, significantly enhancing their comprehension of abstract and even unseen concepts. Experimental results further indicate that the enhanced cognitive capabilities lead to substantial performance gains in challenging tasks, including few-shot/zero-shot learning and out-of-distribution recognition, while also yielding highly interpretable concept representations. These findings highlight that human-in-the-loop supervision can effectively augment the complex cognitive abilities of large models, offering a promising pathway toward developing more human-like cognitive abilities in artificial systems.
- Abstract(参考訳): 近年のディープニューラルネットワーク(DNN)、特に大規模言語モデルの発展は、画像や自然言語理解において顕著な能力を示している。
トレーニングデータの量の増加によるモデルパラメータのスケールアップは、DNN能力の向上が進んでいるが、抽象概念の理解、推論、人間の認知に固有の新しいシナリオへの適応など、複雑な認知能力の実現は、依然として大きな課題である。
本研究では,脳内脳制御学習が脳信号の小さなセットを利用して,人間の概念構造をDNNに効果的に伝達し,抽象的,さらには目に見えない概念の理解を著しく向上させることができることを示す。
実験の結果、認知能力の強化は、少数のショット/ゼロショット学習やアウト・オブ・ディストリビューション認識を含む課題において大きなパフォーマンス向上をもたらし、同時に高い解釈可能な概念表現をもたらすことが示唆された。
これらの知見は、ループ内の人間監督が、大規模モデルの複雑な認知能力を効果的に増強し、人工システムにおいてより人間的な認知能力を開発するための、有望な道筋を提供することを示している。
関連論文リスト
- Brain-inspired AI Agent: The Way Towards AGI [5.867107330135988]
脳にインスパイアされたAIの研究者たちは、人間の脳の動作メカニズムからインスピレーションを求め、その機能的ルールをインテリジェントなモデルに再現することを目指している。
そこで我々は,脳にインスパイアされたAIエージェントの概念を提案し,比較的実現可能でエージェント互換な皮質領域機能を抽出する方法を分析した。
これらの構造をエージェントに実装することで、人間の能力に似た基本的な認知知性を実現できる。
論文 参考訳(メタデータ) (2024-12-12T02:15:48Z) - Brain-like Functional Organization within Large Language Models [58.93629121400745]
人間の脳は長い間人工知能(AI)の追求にインスピレーションを与えてきた
最近のニューロイメージング研究は、人工ニューラルネットワーク(ANN)の計算的表現と、人間の脳の刺激に対する神経反応との整合性の説得力のある証拠を提供する。
本研究では、人工ニューロンのサブグループと機能的脳ネットワーク(FBN)を直接結合することで、このギャップを埋める。
このフレームワークはANサブグループをFBNにリンクし、大きな言語モデル(LLM)内で脳に似た機能的組織を記述できる。
論文 参考訳(メタデータ) (2024-10-25T13:15:17Z) - Enhancing learning in spiking neural networks through neuronal heterogeneity and neuromodulatory signaling [52.06722364186432]
人工ニューラルネットワーク(ANN)の強化のための生物学的インフォームドフレームワークを提案する。
提案したデュアルフレームアプローチは、多様なスパイキング動作をエミュレートするためのスパイキングニューラルネットワーク(SNN)の可能性を強調している。
提案手法は脳にインスパイアされたコンパートメントモデルとタスク駆動型SNN, バイオインスピレーション, 複雑性を統合している。
論文 参考訳(メタデータ) (2024-07-05T14:11:28Z) - Improving deep learning with prior knowledge and cognitive models: A
survey on enhancing explainability, adversarial robustness and zero-shot
learning [0.0]
我々は、敵の防御を実現するために、現在および新興の知識インフォームドおよび脳にインスパイアされた認知システムについてレビューする。
脳に触発された認知法は、人間の心を模倣する計算モデルを用いて、人工知能や自律ロボットの知的な行動を強化する。
論文 参考訳(メタデータ) (2024-03-11T18:11:00Z) - Achieving More Human Brain-Like Vision via Human EEG Representational Alignment [1.811217832697894]
非侵襲脳波に基づく人間の脳活動に対応する視覚モデル「Re(presentational)Al(ignment)net」を提案する。
我々の革新的な画像から脳への多層符号化フレームワークは、複数のモデル層を最適化することにより、人間の神経のアライメントを向上する。
我々の発見は、ReAlnetが人工と人間の視覚のギャップを埋め、より脳に似た人工知能システムへの道を歩むブレークスルーを表していることを示唆している。
論文 参考訳(メタデータ) (2024-01-30T18:18:41Z) - A Neuro-mimetic Realization of the Common Model of Cognition via Hebbian
Learning and Free Energy Minimization [55.11642177631929]
大規模なニューラル生成モデルは、意味的に豊富なテキストのパスを合成したり、複雑な画像を生成することができる。
我々はコモン・モデル・オブ・コグニティブ・ニューラル・ジェネレーティブ・システムについて論じる。
論文 参考訳(メタデータ) (2023-10-14T23:28:48Z) - NeuroCERIL: Robotic Imitation Learning via Hierarchical Cause-Effect
Reasoning in Programmable Attractor Neural Networks [2.0646127669654826]
本稿では,脳にインスパイアされた神経認知アーキテクチャであるNeuroCERILについて紹介する。
シミュレーションされたロボット模倣学習領域において,NeuroCERILは様々な手続き的スキルを習得できることを示す。
我々は、NeuroCERILは人間のような模倣学習の実行可能な神経モデルであると結論付けた。
論文 参考訳(メタデータ) (2022-11-11T19:56:11Z) - Multimodal foundation models are better simulators of the human brain [65.10501322822881]
1500万の画像テキストペアを事前訓練した,新たに設計されたマルチモーダル基礎モデルを提案する。
視覚的エンコーダも言語的エンコーダもマルチモーダルで訓練され,脳に近いことが判明した。
論文 参考訳(メタデータ) (2022-08-17T12:36:26Z) - Imagination-Augmented Natural Language Understanding [71.51687221130925]
自然言語理解タスクを解決するために,Imagination-Augmented Cross-modal (iACE)を導入する。
iACEは、強力な生成的および事前訓練された視覚・言語モデルから変換された外部知識で視覚的な想像を可能にする。
GLUEとSWAGの実験は、iACEが視覚的に教師付き事前訓練されたモデルよりも一貫した改善を達成していることを示している。
論文 参考訳(メタデータ) (2022-04-18T19:39:36Z) - Backprop-Free Reinforcement Learning with Active Neural Generative
Coding [84.11376568625353]
動的環境におけるエラー(バックプロップ)のバックプロパゲーションを伴わない行動駆動型生成モデルの学習のための計算フレームワークを提案する。
我々は、まばらな報酬でも機能するインテリジェントエージェントを開発し、推論として計画の認知理論からインスピレーションを得ている。
我々のエージェントの堅牢な性能は、神経推論と学習のためのバックプロップフリーアプローチがゴール指向の行動を促進するという有望な証拠を提供する。
論文 参考訳(メタデータ) (2021-07-10T19:02:27Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。