論文の概要: Transformer and Snowball Graph Convolution Learning for Brain functional
network Classification
- arxiv url: http://arxiv.org/abs/2303.16132v2
- Date: Mon, 5 Jun 2023 16:42:44 GMT
- ステータス: 処理完了
- システム内更新日: 2023-06-07 02:06:08.011800
- Title: Transformer and Snowball Graph Convolution Learning for Brain functional
network Classification
- Title(参考訳): 脳機能ネットワーク分類のためのトランスフォーマーと雪玉グラフ畳み込み学習
- Authors: Jinlong Hu, Yangmin Huang, Shoubin Dong
- Abstract要約: 我々は,脳機能ネットワーク分類のためのトランスフォーマーとスノーボールエンコーディングネットワーク(TSEN)を提案する。
TSENは、雪玉符号化層によるグラフ雪玉接続とグラフトランスフォーマーを組み合わせることで、マルチスケール情報をキャプチャする能力を高めた。
提案したモデルを2つの大規模脳機能ネットワークデータセットで評価し、TSENが最先端のGNNモデルより優れていることを示した。
- 参考スコア(独自算出の注目度): 2.127049691404299
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Advanced deep learning methods, especially graph neural networks (GNNs), are
increasingly expected to learn from brain functional network data and identify
the functional connections between brain disorder and health. In this paper, we
proposed a novel Transformer and snowball encoding networks (TSEN) for brain
functional network classification, which introduced Transformer architecture
with graph snowball connection into GNNs for learning whole-graph
representation. TSEN combined graph snowball connection with graph Transformer
by snowball encoding layers, which enhanced the power to capture multi-scale
information and global patterns of brain functional networks. TSEN also
introduced snowball graph convolution as position embedding in Transformer
structure, which was a simple yet effective method for capturing local patterns
naturally. We evaluated the proposed model by two large-scale brain functional
network datasets, and the results demonstrated that TSEN outperformed the
state-of-the-art GNN models and the graph-transformer based GNN models.
- Abstract(参考訳): 高度なディープラーニング手法、特にグラフニューラルネットワーク(gnns)は、脳機能ネットワークデータから学習し、脳障害と健康の間の機能的関連を特定することが期待されている。
本稿では,脳機能ネットワーク分類のための新しいトランスフォーマーと雪玉符号化ネットワーク(TSEN)を提案し,グラフ雪玉接続を用いたトランスフォーマーアーキテクチャをGNNに導入し,グラフ全体の表現を学習する。
TSENは、雪玉エンコーディング層によるグラフ雪玉接続とグラフトランスフォーマーを組み合わせることで、マルチスケール情報と脳機能ネットワークのグローバルパターンをキャプチャする能力を高めた。
TSENはまた、局所パターンを自然にキャプチャするための単純かつ効果的な方法であるTransformer構造に位置埋め込みとして、雪玉グラフ畳み込みを導入した。
提案モデルを2つの大規模脳機能ネットワークデータセットを用いて評価し,TSENが最先端のGNNモデルとグラフ変換器ベースのGNNモデルより優れていることを示した。
関連論文リスト
- CNN2GNN: How to Bridge CNN with GNN [59.42117676779735]
蒸留によりCNNとGNNを統一する新しいCNN2GNNフレームワークを提案する。
Mini-ImageNetにおける蒸留ブースターの2層GNNの性能は、ResNet152のような数十層を含むCNNよりもはるかに高い。
論文 参考訳(メタデータ) (2024-04-23T08:19:08Z) - Graph Neural Networks for Learning Equivariant Representations of Neural Networks [55.04145324152541]
本稿では,ニューラルネットワークをパラメータの計算グラフとして表現することを提案する。
我々のアプローチは、ニューラルネットワークグラフを多種多様なアーキテクチャでエンコードする単一モデルを可能にする。
本稿では,暗黙的ニューラル表現の分類や編集など,幅広いタスクにおける本手法の有効性を示す。
論文 参考訳(メタデータ) (2024-03-18T18:01:01Z) - Graph Neural Networks Provably Benefit from Structural Information: A
Feature Learning Perspective [53.999128831324576]
グラフニューラルネットワーク(GNN)は、グラフ表現学習の先駆けとなった。
本研究では,特徴学習理論の文脈におけるグラフ畳み込みの役割について検討する。
論文 参考訳(メタデータ) (2023-06-24T10:21:11Z) - NAR-Former V2: Rethinking Transformer for Universal Neural Network
Representation Learning [25.197394237526865]
本稿では,トランスフォーマーに基づく汎用ニューラルネットワーク表現学習モデル NAR-Former V2 を提案する。
具体的には、ネットワークをグラフとして取り、簡単なトークン化器を設計して、ネットワークをシーケンスにエンコードする。
我々は,GNNの帰納的表現学習能力をTransformerに組み込んだ。
論文 参考訳(メタデータ) (2023-06-19T09:11:04Z) - Brain Network Transformer [13.239896897835191]
脳ネットワーク解析のためのトランスフォーマーモデルについて検討する。
データの特徴によって駆動される私たちは、脳ネットワークを、一定のサイズと順序のノードを持つグラフとしてモデル化します。
我々は、ABIDEの大規模脳ネットワークデータセットとして唯一公開されているものについて、評価パイプラインを再標準化する。
論文 参考訳(メタデータ) (2022-10-13T02:30:06Z) - Parameter Convex Neural Networks [13.42851919291587]
本研究では,ある条件下でのニューラルネットワークのパラメータに関して凸である指数的多層ニューラルネットワーク(EMLP)を提案する。
後期実験では,指数グラフ畳み込みネットワーク(EGCN)を同じアーキテクチャで構築し,グラフ分類データセット上で実験を行う。
論文 参考訳(メタデータ) (2022-06-11T16:44:59Z) - Spiking Graph Convolutional Networks [19.36064180392385]
SpikingGCNは、GCNの埋め込みとSNNの生体忠実性特性を統合することを目的としたエンドツーエンドフレームワークである。
ニューロモルフィックチップ上でのスパイキングGCNは、グラフデータ解析にエネルギー効率の明確な利点をもたらすことを示す。
論文 参考訳(メタデータ) (2022-05-05T16:44:36Z) - Graph Neural Networks with Learnable Structural and Positional
Representations [83.24058411666483]
任意のグラフの大きな問題は、ノードの標準位置情報の欠如である。
ノードの位置ノード(PE)を導入し、Transformerのように入力層に注入する。
両方のGNNクラスで学習可能なPEを考えると、分子データセットのパフォーマンスは2.87%から64.14%に向上する。
論文 参考訳(メタデータ) (2021-10-15T05:59:15Z) - A Unified View on Graph Neural Networks as Graph Signal Denoising [49.980783124401555]
グラフニューラルネットワーク(GNN)は,グラフ構造化データの学習表現において顕著に普及している。
本研究では,代表的GNNモデル群における集約過程を,グラフ記述問題の解法とみなすことができることを数学的に確立する。
UGNNから派生した新しいGNNモデルADA-UGNNをインスタンス化し、ノード間の適応的滑らかさでグラフを処理する。
論文 参考訳(メタデータ) (2020-10-05T04:57:18Z) - Graphs, Convolutions, and Neural Networks: From Graph Filters to Graph
Neural Networks [183.97265247061847]
我々はグラフ信号処理を活用してグラフニューラルネットワーク(GNN)の表現空間を特徴付ける。
GNNにおけるグラフ畳み込みフィルタの役割について議論し、そのようなフィルタで構築されたアーキテクチャは、置換同値の基本的な性質と位相変化に対する安定性を持つことを示す。
また,ロボット群に対するリコメンデータシステムや分散型コントローラの学習におけるGNNの利用について検討した。
論文 参考訳(メタデータ) (2020-03-08T13:02:15Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。