論文の概要: Neural Functional Alignment Space: Brain-Referenced Representation of Artificial Neural Networks
- arxiv url: http://arxiv.org/abs/2603.00793v1
- Date: Sat, 28 Feb 2026 19:48:27 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-03-03 19:50:56.363831
- Title: Neural Functional Alignment Space: Brain-Referenced Representation of Artificial Neural Networks
- Title(参考訳): ニューラルファンクショナルアライメント空間:ニューラルニューラルネットワークの脳関連表現
- Authors: Ruiyu Yan, Hanqi Jiang, Yi Pan, Xiaobo Li, Tianming Liu, Xi Jiang, Lin Zhao,
- Abstract要約: そこで我々は,同じ機能領域で人工ニューラルネットワークを特徴付ける脳参照フレームワークを提案する。
NFASは、ネットワーク奥行きの刺激表現の本質的な動的進化をモデル化することで、従来のアライメントアプローチから逸脱する。
視覚、音声、言語にまたがる45以上の事前訓練されたモデルにおいて、NFASは脳が参照する空間内の構造的構造を明らかにしている。
- 参考スコア(独自算出の注目度): 15.491307802291836
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We propose the Neural Functional Alignment Space (NFAS), a brain-referenced representational framework for characterizing artificial neural networks on equal functional grounds. NFAS departs from conventional alignment approaches that rely on layer-wise features or task-specific activations by modeling the intrinsic dynamical evolution of stimulus representations across network depth. Specifically, we model layer-wise embeddings as a depth-wise dynamical trajectory and apply Dynamic Mode Decomposition (DMD) to extract the stable mode. This representation is then projected into a biologically anchored coordinate system defined by distributed neural responses. We also introduce the Signal-to-Noise Consistency Index (SNCI) to quantify cross-model consistency at the modality level. Across 45 pretrained models spanning vision, audio, and language, NFAS reveals structured organization within this brain-referenced space, including modality-specific clustering and cross-modal convergence in integrative cortical systems. Our findings suggest that representation dynamics provide a principled basis for
- Abstract(参考訳): ニューラルネットワークを等機能的に特徴付ける脳参照表現フレームワークであるNeural Functional Alignment Space (NFAS)を提案する。
NFASは、ネットワーク奥行きの刺激表現の本質的な動的進化をモデル化することによって、階層的特徴やタスク固有のアクティベーションに依存する従来のアライメントアプローチから逸脱する。
具体的には,層間埋め込みを深さ方向の動的軌道としてモデル化し,動的モード分解(DMD)を適用して安定モードを抽出する。
この表現は、分散された神経応答によって定義される生物学的に固定された座標系に投影される。
また,SNCI(Signal-to-Noise Consistency Index)を導入し,モデル間の整合性をモダリティレベルで定量化する。
視覚、音声、言語にまたがる45以上の事前訓練されたモデルにおいて、NFASは、統合的皮質系におけるモダリティ特異的クラスタリングやクロスモーダル収束を含む、この脳参照空間内の構造的構造を明らかにする。
この結果から,表現力学が基本となることが示唆された。
関連論文リスト
- Neuronal Group Communication for Efficient Neural representation [85.36421257648294]
本稿では, 効率的な, モジュラー, 解釈可能な表現を学習する, 大規模ニューラルシステムの構築方法に関する問題に対処する。
本稿では、ニューラルネットワークを相互作用する神経群の動的システムとして再認識する理論駆動型フレームワークである神経グループ通信(NGC)を提案する。
NGCは、重みを埋め込みのようなニューロン状態間の過渡的な相互作用として扱い、神経計算はニューロン群間の反復的なコミュニケーションを通じて展開する。
論文 参考訳(メタデータ) (2025-10-19T14:23:35Z) - Data-Efficient Neural Training with Dynamic Connectomes [1.2260914111581283]
本稿では,神経活動の発達を機能的コネクトームとして表現することで,ニューラルネットワークのトレーニングダイナミクスを特徴付ける新しいアプローチを提案する。
これらのシグネチャは,ネットワークの機能的構造において重要な遷移を効果的に捉えていることを示す。
論文 参考訳(メタデータ) (2025-08-09T04:32:23Z) - Langevin Flows for Modeling Neural Latent Dynamics [81.81271685018284]
逐次変分自動エンコーダであるLangevinFlowを導入し、潜伏変数の時間的進化をアンダーダム化したLangevin方程式で制御する。
われわれのアプローチは、慣性、減衰、学習されたポテンシャル関数、力などの物理的事前を組み込んで、ニューラルネットワークにおける自律的および非自律的プロセスの両方を表現する。
本手法は,ロレンツ誘引器によって生成される合成神経集団に対する最先端のベースラインより優れる。
論文 参考訳(メタデータ) (2025-07-15T17:57:48Z) - Biologically Inspired Spiking Diffusion Model with Adaptive Lateral Selection Mechanism [5.135901078097114]
我々はスパイキングニューラルネットワーク(SNN)に基づく新しい拡散モデルを開発する。
我々は,このスパイク内ループと横方向接続機構を併用して,サブ構造選択ネットワークを反復的に洗練する。
我々のモデルは、複数のベンチマークデータセットにまたがる最先端のSNNベースの生成モデルを一貫して上回っている。
論文 参考訳(メタデータ) (2025-03-31T06:31:50Z) - IP$^{2}$-RSNN: Bi-level Intrinsic Plasticity Enables Learning-to-learn in Recurrent Spiking Neural Networks [20.88195975299024]
2レベル内在性可塑性を有する繰り返しスパイクニューラルネットワーク(IP$2$-RSNN)を開発した。
以上の結果から,RSNNにおけるL2Lの実現には,両レベルの内在性可塑性が重要な役割を担っていることが示唆された。
論文 参考訳(メタデータ) (2025-01-24T14:45:03Z) - Neural Symbolic Regression of Complex Network Dynamics [28.356824329954495]
そこで本研究では,物理インスパイアされたニューラルダイナミクス回帰(PI-NDSR)を用いて,力学の記号表現を自動的に学習する手法を提案する。
本手法は, 種々のダイナミックスから生成された合成データセットと, 病気の拡散に関する実際のデータセットについて検討する。
論文 参考訳(メタデータ) (2024-10-15T02:02:30Z) - Graph-Based Representation Learning of Neuronal Dynamics and Behavior [2.3859858429583665]
本稿では,時間変動ニューロン接続をモデル化する新しいフレームワークTAVRNNを紹介する。
TAVRNNは、解釈可能な集団レベルの表現を維持しながら、単一単位レベルで潜伏ダイナミクスを学習する。
TAVRNNは,(1)自由行動ラットの電気生理学的データ,(2)到達作業中の霊長類体性感覚皮質記録,(3)仮想ゲーム環境と相互作用するDishBrainプラットフォーム内の生物学的ニューロンの3つのデータセットで検証した。
論文 参考訳(メタデータ) (2024-10-01T13:19:51Z) - Contrastive Learning in Memristor-based Neuromorphic Systems [55.11642177631929]
スパイクニューラルネットワークは、現代のバックプロパゲーションによって訓練されたディープネットワークに直面する重要な制約の多くを横取りする、ニューロンベースのモデルの重要なファミリーとなっている。
本研究では,前向き・後向き学習のニューロモルフィック形式であるコントラッシブ・シグナル依存型塑性(CSDP)の概念実証を設計し,検討する。
論文 参考訳(メタデータ) (2024-09-17T04:48:45Z) - The Cooperative Network Architecture: Learning Structured Networks as Representation of Sensory Patterns [3.9848584845601014]
協調ネットワークアーキテクチャ(Cooperative Network Architecture, CNA)は,ニューロンの構造的, 繰り返し接続されたネットワークを用いて, 知覚信号を表すモデルである。
我々は、ネットフラグメントを監督なしに学習し、フレキシブルに組み換えることで、新しいパターンをエンコードし、フィギュア補完とノイズに対するレジリエンスを可能にすることを実証した。
論文 参考訳(メタデータ) (2024-07-08T06:22:10Z) - Interpretable Spatio-Temporal Embedding for Brain Structural-Effective Network with Ordinary Differential Equation [56.34634121544929]
本研究では,まず動的因果モデルを用いて脳効果ネットワークを構築する。
次に、STE-ODE(Spatio-Temporal Embedding ODE)と呼ばれる解釈可能なグラフ学習フレームワークを導入する。
このフレームワークは、構造的および効果的なネットワーク間の動的相互作用を捉えることを目的とした、特異的に設計されたノード埋め込み層を含んでいる。
論文 参考訳(メタデータ) (2024-05-21T20:37:07Z) - Contrastive-Signal-Dependent Plasticity: Self-Supervised Learning in Spiking Neural Circuits [61.94533459151743]
この研究は、スパイキングネットワークのシナプスを調整するための神経生物学的に動機づけられたスキームを設計することの課題に対処する。
我々の実験シミュレーションは、繰り返しスパイクネットワークを訓練する際、他の生物学的に証明可能なアプローチに対して一貫した優位性を示す。
論文 参考訳(メタデータ) (2023-03-30T02:40:28Z) - Recurrent Neural Network Learning of Performance and Intrinsic
Population Dynamics from Sparse Neural Data [77.92736596690297]
本稿では,RNNの入出力動作だけでなく,内部ネットワークのダイナミクスも学習できる新しいトレーニング戦略を提案する。
提案手法は、RNNを訓練し、生理学的にインスパイアされた神経モデルの内部ダイナミクスと出力信号を同時に再現する。
注目すべきは、トレーニングアルゴリズムがニューロンの小さなサブセットの活性に依存する場合であっても、内部動力学の再現が成功することである。
論文 参考訳(メタデータ) (2020-05-05T14:16:54Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。