論文の概要: Network Representation Learning for Biophysical Neural Network Analysis
- arxiv url: http://arxiv.org/abs/2410.11503v1
- Date: Tue, 15 Oct 2024 11:16:54 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-10-16 14:01:32.250746
- Title: Network Representation Learning for Biophysical Neural Network Analysis
- Title(参考訳): 生体物理ニューラルネットワーク解析のためのネットワーク表現学習
- Authors: Youngmok Ha, Yongjoo Kim, Hyun Jae Jang, Seungyeon Lee, Eunji Pak,
- Abstract要約: ネットワーク表現学習(NRL)に基づく新しいBNN分析フレームワークを提案する。
我々のフレームワークは、バイオインスパイアされたグラフアテンションネットワーク(BGAN)である新しい計算グラフ(CG)ベースのBNN表現を統合している。
BGANは、デンドライト、ソマ、軸索を含むニューロンの構成構造と、BNN成分間の双方向情報の流れを反映している。
- 参考スコア(独自算出の注目度): 0.7262345640500065
- License:
- Abstract: The analysis of biophysical neural networks (BNNs) has been a longstanding focus in computational neuroscience. A central yet unresolved challenge in BNN analysis lies in deciphering the correlations between neuronal and synaptic dynamics, their connectivity patterns, and learning process. To address this, we introduce a novel BNN analysis framework grounded in network representation learning (NRL), which leverages attention scores to uncover intricate correlations between network components and their features. Our framework integrates a new computational graph (CG)-based BNN representation, a bio-inspired graph attention network (BGAN) that enables multiscale correlation analysis across BNN representations, and an extensive BNN dataset. The CG-based representation captures key computational features, information flow, and structural relationships underlying neuronal and synaptic dynamics, while BGAN reflects the compositional structure of neurons, including dendrites, somas, and axons, as well as bidirectional information flows between BNN components. The dataset comprises publicly available models from ModelDB, reconstructed using the Python and standardized in NeuroML format, and is augmented with data derived from canonical neuron and synapse models. To our knowledge, this study is the first to apply an NRL-based approach to the full spectrum of BNNs and their analysis.
- Abstract(参考訳): バイオ物理ニューラルネットワーク(BNN)の分析は、長い間、計算神経科学に重点を置いてきた。
BNN分析における中心的で未解決の課題は、神経とシナプスのダイナミクス、それらの接続パターン、学習過程の相関を解読することである。
そこで我々は,ネットワーク表現学習(NRL)に基づく新しいBNN分析フレームワークを提案する。
我々のフレームワークは,新しい計算グラフ(CG)ベースのBNN表現,BNN表現間のマルチスケール相関解析を可能にするバイオインスパイアされたグラフアテンションネットワーク(BGAN),および広範なBNNデータセットを統合する。
BGANは、デンドライト、ソマ、軸索を含むニューロンの構成構造を反映し、BNNコンポーネント間の双方向情報フローも反映している。
このデータセットは、ModelDBから公開されているモデルで構成され、Pythonを使用して再構築され、NeuroMLフォーマットで標準化され、標準ニューロンとシナプスモデルから派生したデータで拡張される。
我々の知る限り、この研究は、NRLに基づくアプローチをBNNの全スペクトルとその分析に適用した最初のものである。
関連論文リスト
- Deep Neural Networks via Complex Network Theory: a Perspective [3.1023851130450684]
ディープニューラルネットワーク(DNN)は、リンクと頂点が反復的にデータを処理し、タスクを亜最適に解くグラフとして表現することができる。複雑なネットワーク理論(CNT)は、統計物理学とグラフ理論を融合させ、その重みとニューロン構造を分析してニューラルネットワークを解釈する方法を提供する。
本研究では,DNNのトレーニング分布から抽出した測定値を用いて既存のCNTメトリクスを拡張し,純粋なトポロジカル解析からディープラーニングの解釈可能性へ移行する。
論文 参考訳(メタデータ) (2024-04-17T08:42:42Z) - Transferability of coVariance Neural Networks and Application to
Interpretable Brain Age Prediction using Anatomical Features [119.45320143101381]
グラフ畳み込みネットワーク(GCN)は、トポロジー駆動のグラフ畳み込み演算を利用して、推論タスクのためにグラフをまたいだ情報を結合する。
我々は、共分散行列をグラフとして、共分散ニューラルネットワーク(VNN)の形でGCNを研究した。
VNNは、GCNからスケールフリーなデータ処理アーキテクチャを継承し、ここでは、共分散行列が極限オブジェクトに収束するデータセットに対して、VNNが性能の転送可能性を示すことを示す。
論文 参考訳(メタデータ) (2023-05-02T22:15:54Z) - Multi-compartment Neuron and Population Encoding improved Spiking Neural
Network for Deep Distributional Reinforcement Learning [3.036382664997076]
スパイキングニューラルネットワーク(SNN)はエネルギー消費が著しく低く、マルチスケールの生物学的特性を取り入れるのに適している。
本稿では,脳にインスパイアされたSNNに基づく深部分布強化学習アルゴリズムと,生体にインスパイアされたマルチコンパートメントニューロン(MCN)モデルと集団符号化法の組み合わせを提案する。
論文 参考訳(メタデータ) (2023-01-18T02:45:38Z) - Extrapolation and Spectral Bias of Neural Nets with Hadamard Product: a
Polynomial Net Study [55.12108376616355]
NTKの研究は典型的なニューラルネットワークアーキテクチャに特化しているが、アダマール製品(NNs-Hp)を用いたニューラルネットワークには不完全である。
本研究では,ニューラルネットワークの特別なクラスであるNNs-Hpに対する有限幅Kの定式化を導出する。
我々は,カーネル回帰予測器と関連するNTKとの等価性を証明し,NTKの適用範囲を拡大する。
論文 参考訳(メタデータ) (2022-09-16T06:36:06Z) - On the Study of Sample Complexity for Polynomial Neural Networks [13.265045615849099]
様々な種類のニューラルネットワークアーキテクチャの中で、サンプルニューラルネットワーク(PNN)は近年、スペクトル分析によって分析可能であることが示されている。
本稿では,従来の文献をPNNに拡張し,PNNのサンプル複雑性に関する新たな結果を得る。
論文 参考訳(メタデータ) (2022-07-18T19:10:53Z) - Deep Reinforcement Learning Guided Graph Neural Networks for Brain
Network Analysis [61.53545734991802]
本稿では,各脳ネットワークに最適なGNNアーキテクチャを探索する新しい脳ネットワーク表現フレームワークBN-GNNを提案する。
提案するBN-GNNは,脳ネットワーク解析タスクにおける従来のGNNの性能を向上させる。
論文 参考訳(メタデータ) (2022-03-18T07:05:27Z) - BScNets: Block Simplicial Complex Neural Networks [79.81654213581977]
グラフ学習における最新の方向性として、SNN(Simplicial Neural Network)が最近登場した。
リンク予測のためのBlock Simplicial Complex Neural Networks (BScNets) モデルを提案する。
BScNetsは、コストを抑えながら最先端のモデルよりも大きなマージンを保っている。
論文 参考訳(メタデータ) (2021-12-13T17:35:54Z) - Modeling Spatio-Temporal Dynamics in Brain Networks: A Comparison of
Graph Neural Network Architectures [0.5033155053523041]
グラフニューラルネットワーク(GNN)は、新しい構造化グラフ信号の解釈を可能にする。
基板上の局所的な機能的相互作用を学習することにより、GNNベースのアプローチが大規模ネットワーク研究に堅牢に拡張可能であることを示す。
論文 参考訳(メタデータ) (2021-12-08T12:57:13Z) - Stability of Algebraic Neural Networks to Small Perturbations [179.55535781816343]
Algebraic Neural Network (AlgNN) は、代数的信号モデルと関連する各層のカスケードで構成されている。
畳み込みという形式的な概念を用いるアーキテクチャは、シフト演算子の特定の選択を超えて、いかに安定であるかを示す。
論文 参考訳(メタデータ) (2020-10-22T09:10:16Z) - Neural Networks Enhancement with Logical Knowledge [83.9217787335878]
関係データに対するKENNの拡張を提案する。
その結果、KENNは、存在関係データにおいても、基礎となるニューラルネットワークの性能を高めることができることがわかった。
論文 参考訳(メタデータ) (2020-09-13T21:12:20Z) - Graph Neural Networks Meet Neural-Symbolic Computing: A Survey and
Perspective [8.047921724008278]
ニューラルシンボリック・コンピューティングのモデルとしてのGNNの利用について、現状を概観する。
これには、いくつかのドメインでのGNNの適用や、ニューラルシンボリックコンピューティングの現在の発展との関係が含まれる。
論文 参考訳(メタデータ) (2020-02-29T18:55:13Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。