論文の概要: A Brain-like Synergistic Core in LLMs Drives Behaviour and Learning
- arxiv url: http://arxiv.org/abs/2601.06851v1
- Date: Sun, 11 Jan 2026 10:48:35 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-01-13 19:08:01.030679
- Title: A Brain-like Synergistic Core in LLMs Drives Behaviour and Learning
- Title(参考訳): LLMにおける脳様シナジスティックコアは行動と学習を駆動する
- Authors: Pedro Urbina-Rodriguez, Zafeirios Fountas, Fernando E. Rosas, Jun Wang, Andrea I. Luppi, Haitham Bou-Ammar, Murray Shanahan, Pedro A. M. Mediano,
- Abstract要約: 大規模言語モデルが自然に相乗的コアを開発することを示す。
中層の領域は相乗的処理を示し, 初期層と後期層は冗長性に依存していることがわかった。
この収束は、シナジスティック情報処理が知性の基本的な性質であることを示している。
- 参考スコア(独自算出の注目度): 50.68188138112555
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The independent evolution of intelligence in biological and artificial systems offers a unique opportunity to identify its fundamental computational principles. Here we show that large language models spontaneously develop synergistic cores -- components where information integration exceeds individual parts -- remarkably similar to those in the human brain. Using principles of information decomposition across multiple LLM model families and architectures, we find that areas in middle layers exhibit synergistic processing while early and late layers rely on redundancy, mirroring the informational organisation in biological brains. This organisation emerges through learning and is absent in randomly initialised networks. Crucially, ablating synergistic components causes disproportionate behavioural changes and performance loss, aligning with theoretical predictions about the fragility of synergy. Moreover, fine-tuning synergistic regions through reinforcement learning yields significantly greater performance gains than training redundant components, yet supervised fine-tuning shows no such advantage. This convergence suggests that synergistic information processing is a fundamental property of intelligence, providing targets for principled model design and testable predictions for biological intelligence.
- Abstract(参考訳): 生物学的および人工システムにおけるインテリジェンスの独立進化は、その基本的な計算原理を識別するユニークな機会を提供する。
ここでは、大きな言語モデルが、情報統合が個々の部分を超えるコンポーネントであるシナジスティックコアを自然に開発することを示します。
複数のLLMモデルファミリーとアーキテクチャにまたがる情報分解の原理を用いて、中間層の領域は相乗的処理を示し、初期層と後期層は冗長性に依存し、生物学的脳における情報組織を反映している。
この組織は学習を通じて生まれ、ランダムに初期化されたネットワークには存在しない。
重要なことに、相乗的成分を非難することは相乗効果の脆弱性に関する理論的予測と一致し、不均等な行動変化と性能損失を引き起こす。
さらに、強化学習による微調整相乗効果は、冗長成分の訓練よりも大幅に向上するが、教師付き微調整はそのような利点を示さない。
この収束は、相乗的情報処理がインテリジェンスの基本的な性質であり、モデル設計の原則と生物学的インテリジェンスの検証可能な予測の目標を提供することを示唆している。
関連論文リスト
- Lessons from Neuroscience for AI: How integrating Actions, Compositional Structure and Episodic Memory could enable Safe, Interpretable and Human-Like AI [0.8481798330936976]
ファンデーションモデルは、複数の抽象化スケールのアクションと、合成生成アーキテクチャとエピソディックメモリを統合するべきだ、と我々は主張する。
ファンデーションモデルにこれらの欠落したコンポーネントを追加することで、現在の障害に対処する方法について説明する。
私たちは、歴史的に実りある脳科学とAIのアイデアの交換が、安全で解釈可能な人間中心のAIへの道を開くのに役立ちます。
論文 参考訳(メタデータ) (2025-12-27T11:54:54Z) - Intelligence Foundation Model: A New Perspective to Approach Artificial General Intelligence [55.07411490538404]
我々は,人工知能基盤モデル(IFM)による人工知能(AGI)への新たな視点を提案する。
IFMは、多様な知的行動から直接学習することで、インテリジェンスの基礎となるメカニズムを取得することを目的としている。
論文 参考訳(メタデータ) (2025-11-13T09:28:41Z) - A Neural Network Model of Complementary Learning Systems: Pattern Separation and Completion for Continual Learning [2.9123921488295768]
事前知識を忘れずに新しい情報を学ぶことは、人間の知性の中心である。
対照的に、ニューラルネットワークモデルは、新しい情報を取得する際に破滅的な忘れに苦しむ。
我々は、最先端の精度(90%)に近づいた、神経学的にもっともらしい連続学習モデルを開発する。
本研究は, 生体および人工システムにおいて, メモリ統合, 一般化, 継続学習をモデル化するための機能テンプレートを提供する。
論文 参考訳(メタデータ) (2025-07-15T15:05:26Z) - From Tokens to Thoughts: How LLMs and Humans Trade Compression for Meaning [63.25540801694765]
大きな言語モデル (LLMs) は言語能力を示すが、同じバランスをとれるかどうかは不明だ。
本稿では,LLMと人間を定量的に比較するために,Information Bottleneckの原理を適用した。
論文 参考訳(メタデータ) (2025-05-21T16:29:00Z) - Multi-task Collaborative Pre-training and Individual-adaptive-tokens
Fine-tuning: A Unified Framework for Brain Representation Learning [3.1453938549636185]
協調的事前学習と個別学習を組み合わせた統合フレームワークを提案する。
提案したMCIATはADHD-200データセット上で最先端の診断性能を実現する。
論文 参考訳(メタデータ) (2023-06-20T08:38:17Z) - Critical Learning Periods for Multisensory Integration in Deep Networks [112.40005682521638]
ニューラルネットワークが様々な情報源からの情報を統合する能力は、トレーニングの初期段階において、適切な相関した信号に晒されることに批判的になることを示す。
臨界周期は、訓練されたシステムとその学習された表現の最終性能を決定づける、複雑で不安定な初期過渡的ダイナミクスから生じることを示す。
論文 参考訳(メタデータ) (2022-10-06T23:50:38Z) - Synergistic information supports modality integration and flexible
learning in neural networks solving multiple tasks [107.8565143456161]
本稿では,様々な認知タスクを行う単純な人工ニューラルネットワークが採用する情報処理戦略について検討する。
結果は、ニューラルネットワークが複数の多様なタスクを学習するにつれて、シナジーが増加することを示している。
トレーニング中に無作為にニューロンを停止させると、ネットワークの冗長性が増加し、ロバスト性の増加に対応する。
論文 参考訳(メタデータ) (2022-10-06T15:36:27Z) - Object-based attention for spatio-temporal reasoning: Outperforming
neuro-symbolic models with flexible distributed architectures [15.946511512356878]
適切な帰納的バイアスを持つ完全学習型ニューラルネットワークは,従来のニューラルシンボリックモデルよりもかなり優れた性能を示す。
我々のモデルは、自己意識と学習された「ソフト」オブジェクト中心表現の両方を批判的に利用します。
論文 参考訳(メタデータ) (2020-12-15T18:57:40Z) - Brain-inspired self-organization with cellular neuromorphic computing
for multimodal unsupervised learning [0.0]
本稿では,自己組織マップとヘビアン様学習を用いた再突入理論に基づく脳刺激型ニューラルシステムを提案する。
システムトポロジがユーザによって固定されるのではなく,自己組織化によって学習されるような,いわゆるハードウェアの可塑性の獲得について述べる。
論文 参考訳(メタデータ) (2020-04-11T21:02:45Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。