論文の概要: Lilith: Developmental Modular LLMs with Chemical Signaling
- arxiv url: http://arxiv.org/abs/2507.04575v1
- Date: Sun, 06 Jul 2025 23:18:51 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-07-08 15:46:35.240173
- Title: Lilith: Developmental Modular LLMs with Chemical Signaling
- Title(参考訳): Lilith: 化学信号を用いた開発モジュール型LCM
- Authors: Mohid Farooqi, Alejandro Comas-Leon,
- Abstract要約: 人工知能の現在のパラダイムは、神経レベルでの脳活動をモデル化するフィードフォワードネットワークの層に依存している。
我々は,モジュール型言語モデルの発達訓練と,ブレインインスパイアされたトークンベースの通信プロトコルを組み合わせた,新しいアーキテクチャLILITHを提案する。
- 参考スコア(独自算出の注目度): 49.1574468325115
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Current paradigms in Artificial Intelligence rely on layers of feedforward networks which model brain activity at the neuronal level. We conjecture that expanding to the level of multiple brain regions with chemical signaling may be a productive step toward understanding the emergence of consciousness. We propose LILITH, a novel architecture that combines developmental training of modular language models with brain-inspired token-based communication protocols, mirroring chemical signaling in the brain. Our approach models distinct brain regions as specialized LLM modules including thinking, memory, sensory, and regulatory components that communicate through emergent token-based signaling protocols analogous to neurotransmitter networks. Unlike traditional pre-trained systems, LILITH would employ developmental training where untrained LLM architectures learn through simulated life experiences, developing communication pathways and cognitive abilities through environmental interaction and evolutionary optimization. This framework would enable direct empirical investigation of consciousness emergence using Integrated Information Theory metrics while providing unprecedented insight into inter-module signaling patterns during development. By optimizing for consciousness emergence rather than task performance, LILITH could provide insight into different emergent phenomena at multiple levels of neural correlates, contrasting neuronal-level processing with multi-region coordination dynamics. The goal of this paper is to put the idea forward while recognizing the substantial challenges in implementing such a system.
- Abstract(参考訳): 人工知能の現在のパラダイムは、神経レベルでの脳活動をモデル化するフィードフォワードネットワークの層に依存している。
ケミカルシグナリングによって複数の脳領域に広がることは、意識の出現を理解するための生産的なステップである可能性があると推測する。
我々は,モジュール型言語モデルの発達訓練と,脳に触発されたトークンベースの通信プロトコルを組み合わせることで,脳内の化学信号のミラーリングを行う新しいアーキテクチャLILITHを提案する。
我々のアプローチは、神経伝達物質ネットワークに類似した創発的トークンベースのシグナル伝達プロトコルを介して通信する思考、記憶、感覚、規制コンポーネントを含む、特殊なLSMモジュールとして脳領域をモデル化する。
従来の事前訓練システムとは異なり、LILITHは、未訓練のLLMアーキテクチャが環境相互作用と進化最適化を通じてコミュニケーション経路と認知能力を開発することで、シミュレートされた生活経験を通して学習する発達訓練を採用する。
このフレームワークは、統合情報理論のメトリクスを用いて、モジュール間のシグナル伝達パターンに関する前例のない洞察を提供しながら、意識の出現を直接的に調査することを可能にする。
タスクパフォーマンスよりも意識の出現を最適化することにより、LILITHは複数のレベルの神経相関で異なる創発現象の洞察を与えることができる。
本研究の目的は,そのようなシステムを実装する上での課題を認識しつつ,その考え方を前進させることである。
関連論文リスト
- Neural Manifolds and Cognitive Consistency: A New Approach to Memory Consolidation in Artificial Systems [0.0]
本稿では, ニューラル人口動態, 海馬鋭波リップル(SpWR)生成, ハイダー理論に触発された認知的一貫性の制約を統一する新しい数学的枠組みを提案する。
我々のモデルは低次元多様体表現を利用して構造化された神経ドリフトを捕捉し、コヒーレントシナプス相互作用を強制するためにバランスエネルギー関数を組み込む。
この研究は、神経科学と人工知能を橋渡しするスケーラブルなニューロモルフィックアーキテクチャの道を開くもので、将来のインテリジェントシステムに対してより堅牢で適応的な学習メカニズムを提供する。
論文 参考訳(メタデータ) (2025-02-25T18:28:25Z) - Improving the adaptive and continuous learning capabilities of artificial neural networks: Lessons from multi-neuromodulatory dynamics [43.35924697803789]
生物学的生物は、動的環境に適応しながら知識を取得し、移動し、保持する。
本研究は,生物学習システムの基本的特徴である神経調節が,破滅的な忘れ込みなどの課題にどのように対処できるかを考察する。
マルチスケールの神経調節を統合することで,生物学習と人工システムとのギャップを埋めることを目指す。
論文 参考訳(メタデータ) (2025-01-12T10:10:01Z) - Enhancing learning in spiking neural networks through neuronal heterogeneity and neuromodulatory signaling [52.06722364186432]
人工ニューラルネットワーク(ANN)の強化のための生物学的インフォームドフレームワークを提案する。
提案したデュアルフレームアプローチは、多様なスパイキング動作をエミュレートするためのスパイキングニューラルネットワーク(SNN)の可能性を強調している。
提案手法は脳にインスパイアされたコンパートメントモデルとタスク駆動型SNN, バイオインスピレーション, 複雑性を統合している。
論文 参考訳(メタデータ) (2024-07-05T14:11:28Z) - MBrain: A Multi-channel Self-Supervised Learning Framework for Brain
Signals [7.682832730967219]
本稿では,SEEGデータとEEGデータのいずれかを事前学習できる脳信号の自己教師型学習フレームワークについて検討する。
そこで我々は,異なるチャネル間の空間的および時間的相関を暗黙的に学習するために,MBrainを提案する。
我々のモデルは、最先端のSSLおよび教師なしモデルよりも優れており、臨床に展開する能力を持っている。
論文 参考訳(メタデータ) (2023-06-15T09:14:26Z) - Adaptive structure evolution and biologically plausible synaptic
plasticity for recurrent spiking neural networks [6.760855795263126]
スパイキングニューラルネットワーク(SNN)ベースのLiquid State Machine(LSM)は、脳にインスパイアされたインテリジェンスを研究するのに適したアーキテクチャである。
本稿では,適応的構造進化と大規模生物学習ルールを統合した新しいLSM学習モデルを提案する。
論文 参考訳(メタデータ) (2023-03-31T07:36:39Z) - Contrastive-Signal-Dependent Plasticity: Self-Supervised Learning in Spiking Neural Circuits [61.94533459151743]
この研究は、スパイキングネットワークのシナプスを調整するための神経生物学的に動機づけられたスキームを設計することの課題に対処する。
我々の実験シミュレーションは、繰り返しスパイクネットワークを訓練する際、他の生物学的に証明可能なアプローチに対して一貫した優位性を示す。
論文 参考訳(メタデータ) (2023-03-30T02:40:28Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。