論文の概要: Intelligent Neural Networks: From Layered Architectures to Graph-Organized Intelligence
- arxiv url: http://arxiv.org/abs/2511.22813v1
- Date: Thu, 27 Nov 2025 23:59:29 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-12-01 19:47:55.73266
- Title: Intelligent Neural Networks: From Layered Architectures to Graph-Organized Intelligence
- Title(参考訳): インテリジェントニューラルネットワーク:レイヤアーキテクチャからグラフオーガナイズドインテリジェンスへ
- Authors: Antoine Salomon,
- Abstract要約: 我々は、ニューロンが内部記憶を持つ第一級エンティティであり、学習された通信パターンを持つパラダイムシフトであるIntelligent Neural Networks (INN)を紹介する。
標準のText8文字モデリングベンチマークでは、INNは1.705bit-Per-Character (BPC)を達成した。
この研究は、グラフ構造を持つニューロン中心の設計が単にバイオインスパイアされただけでなく、計算的に効果的であることを示した。
- 参考スコア(独自算出の注目度): 0.20305676256390928
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Biological neurons exhibit remarkable intelligence: they maintain internal states, communicate selectively with other neurons, and self-organize into complex graphs rather than rigid hierarchical layers. What if artificial intelligence could emerge from similarly intelligent computational units? We introduce Intelligent Neural Networks (INN), a paradigm shift where neurons are first-class entities with internal memory and learned communication patterns, organized in complete graphs rather than sequential layers. Each Intelligent Neuron combines selective state-space dynamics (knowing when to activate) with attention-based routing (knowing to whom to send signals), enabling emergent computation through graph-structured interactions. On the standard Text8 character modeling benchmark, INN achieves 1.705 Bit-Per-Character (BPC), significantly outperforming a comparable Transformer (2.055 BPC) and matching a highly optimized LSTM baseline. Crucially, a parameter-matched baseline of stacked Mamba blocks fails to converge (>3.4 BPC) under the same training protocol, demonstrating that INN's graph topology provides essential training stability. Ablation studies confirm this: removing inter-neuron communication degrades performance or leads to instability, proving the value of learned neural routing. This work demonstrates that neuron-centric design with graph organization is not merely bio-inspired -- it is computationally effective, opening new directions for modular, interpretable, and scalable neural architectures.
- Abstract(参考訳): 生体ニューロンは、内部状態を維持し、他のニューロンと選択的に通信し、厳密な階層層ではなく複雑なグラフに自己組織化する。
もし人工知能が同様に知的な計算ユニットから生まれるとしたら?
インテリジェントニューラルネットワーク(INN)は、ニューロンが内部記憶と学習された通信パターンを持つ第一級エンティティであり、シーケンシャルな層ではなく完全なグラフで構成されるパラダイムシフトである。
各インテリジェントニューロンは、選択的な状態空間力学(アクティベーションのタイミングを知る)と注意に基づくルーティング(誰がシグナルを送るかを知る)を組み合わせ、グラフ構造化相互作用による創発的計算を可能にする。
標準の Text8 文字モデリングベンチマークでは、INN は 1.705 Bit-Per-Character (BPC) を達成し、同等の Transformer (2.055 BPC) を著しく上回り、高度に最適化されたLSTM ベースラインに適合する。
重要なことに、積み重ねられたMambaブロックのパラメータマッチングベースラインは、同じトレーニングプロトコルの下で収束しない(>3.4 BPC)。
ニューロン間通信の除去はパフォーマンスを低下させるか、不安定に陥り、学習したニューラルネットワークの価値が証明される。
この研究は、グラフ構造を持つニューロン中心の設計は単にバイオインスパイアされたものではなく、計算的に効果的であり、モジュラー、解釈可能、スケーラブルなニューラルアーキテクチャのための新しい方向を開くことを示しています。
関連論文リスト
- Computing with Canonical Microcircuits [0.0]
標準マイクロ回路(CMC)に基づく計算アーキテクチャを提案する。
我々はこれらの回路を、スピン状星状体、抑制性、錐体ニューロンからなる神経回路として実装する。
実験の結果、1つのMCCノードでさえ、MNISTで97.8%の精度を達成していることがわかった。
論文 参考訳(メタデータ) (2025-07-25T11:10:13Z) - NN-Former: Rethinking Graph Structure in Neural Architecture Representation [67.3378579108611]
グラフニューラルネットワーク(GNN)とトランスフォーマーは、ニューラルネットワークを表現する上で有望なパフォーマンスを示している。
これまでの研究で見過ごされている間、兄弟ノードは中心的であることを示す。
我々のアプローチは、精度と遅延予測の両方において、常に有望な性能を達成する。
論文 参考訳(メタデータ) (2025-07-01T15:46:18Z) - Graph-Based Representation Learning of Neuronal Dynamics and Behavior [2.3859858429583665]
本稿では,時間変動ニューロン接続をモデル化する新しいフレームワークTAVRNNを紹介する。
TAVRNNは、解釈可能な集団レベルの表現を維持しながら、単一単位レベルで潜伏ダイナミクスを学習する。
TAVRNNは,(1)自由行動ラットの電気生理学的データ,(2)到達作業中の霊長類体性感覚皮質記録,(3)仮想ゲーム環境と相互作用するDishBrainプラットフォーム内の生物学的ニューロンの3つのデータセットで検証した。
論文 参考訳(メタデータ) (2024-10-01T13:19:51Z) - Unsupervised representation learning with Hebbian synaptic and structural plasticity in brain-like feedforward neural networks [0.0]
教師なし表現学習が可能な脳様ニューラルネットワークモデルを導入,評価する。
このモデルは、一般的な機械学習ベンチマークのさまざまなセットでテストされた。
論文 参考訳(メタデータ) (2024-06-07T08:32:30Z) - SpikingJelly: An open-source machine learning infrastructure platform
for spike-based intelligence [51.6943465041708]
スパイキングニューラルネットワーク(SNN)は、高エネルギー効率のニューロモルフィックチップに脳にインスパイアされたインテリジェンスを実現することを目的としている。
我々は、ニューロモルフィックデータセットの事前処理、深層SNNの構築、パラメータの最適化、およびニューロモルフィックチップへのSNNのデプロイのためのフルスタックツールキットをコントリビュートする。
論文 参考訳(メタデータ) (2023-10-25T13:15:17Z) - A Hybrid Neural Coding Approach for Pattern Recognition with Spiking
Neural Networks [53.31941519245432]
脳にインスパイアされたスパイクニューラルネットワーク(SNN)は、パターン認識タスクを解く上で有望な能力を示している。
これらのSNNは、情報表現に一様神経コーディングを利用する同質ニューロンに基づいている。
本研究では、SNNアーキテクチャは異種符号化方式を組み込むよう、均質に設計されるべきである、と論じる。
論文 参考訳(メタデータ) (2023-05-26T02:52:12Z) - A Topological Deep Learning Framework for Neural Spike Decoding [1.0062127381149395]
脳が空間情報をエンコードする方法の2つは、方向細胞と格子細胞である。
ニューラルスパイクトレイン復号のためのトポロジ的深層学習フレームワークを開発した。
論文 参考訳(メタデータ) (2022-12-01T15:43:20Z) - DynDepNet: Learning Time-Varying Dependency Structures from fMRI Data
via Dynamic Graph Structure Learning [58.94034282469377]
下流予測タスクによって誘導されるfMRIデータの最適時間変化依存性構造を学習する新しい手法であるDynDepNetを提案する。
実世界のfMRIデータセットの実験は、性別分類のタスクにおいて、DynDepNetが最先端の結果を達成することを実証している。
論文 参考訳(メタデータ) (2022-09-27T16:32:11Z) - POPPINS : A Population-Based Digital Spiking Neuromorphic Processor with
Integer Quadratic Integrate-and-Fire Neurons [50.591267188664666]
2つの階層構造を持つ180nmプロセス技術において,集団に基づくディジタルスパイキングニューロモルフィックプロセッサを提案する。
提案手法は,生体模倣型ニューロモルフィックシステム,低消費電力,低遅延推論処理アプリケーションの開発を可能にする。
論文 参考訳(メタデータ) (2022-01-19T09:26:34Z) - Non-linear Neurons with Human-like Apical Dendrite Activations [81.18416067005538]
XOR論理関数を100%精度で学習し, 標準的なニューロンに後続のアピーカルデンドライト活性化(ADA)が認められた。
コンピュータビジョン,信号処理,自然言語処理の6つのベンチマークデータセットについて実験を行った。
論文 参考訳(メタデータ) (2020-02-02T21:09:39Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。