論文の概要: Brain Network Transformer
- arxiv url: http://arxiv.org/abs/2210.06681v1
- Date: Thu, 13 Oct 2022 02:30:06 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-14 13:54:47.922419
- Title: Brain Network Transformer
- Title(参考訳): 脳ネットワークトランスフォーマー
- Authors: Xuan Kan, Wei Dai, Hejie Cui, Zilong Zhang, Ying Guo, Carl Yang
- Abstract要約: 脳ネットワーク解析のためのトランスフォーマーモデルについて検討する。
データの特徴によって駆動される私たちは、脳ネットワークを、一定のサイズと順序のノードを持つグラフとしてモデル化します。
我々は、ABIDEの大規模脳ネットワークデータセットとして唯一公開されているものについて、評価パイプラインを再標準化する。
- 参考スコア(独自算出の注目度): 13.239896897835191
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Human brains are commonly modeled as networks of Regions of Interest (ROIs)
and their connections for the understanding of brain functions and mental
disorders. Recently, Transformer-based models have been studied over different
types of data, including graphs, shown to bring performance gains widely. In
this work, we study Transformer-based models for brain network analysis. Driven
by the unique properties of data, we model brain networks as graphs with nodes
of fixed size and order, which allows us to (1) use connection profiles as node
features to provide natural and low-cost positional information and (2) learn
pair-wise connection strengths among ROIs with efficient attention weights
across individuals that are predictive towards downstream analysis tasks.
Moreover, we propose an Orthonormal Clustering Readout operation based on
self-supervised soft clustering and orthonormal projection. This design
accounts for the underlying functional modules that determine similar behaviors
among groups of ROIs, leading to distinguishable cluster-aware node embeddings
and informative graph embeddings. Finally, we re-standardize the evaluation
pipeline on the only one publicly available large-scale brain network dataset
of ABIDE, to enable meaningful comparison of different models. Experiment
results show clear improvements of our proposed Brain Network Transformer on
both the public ABIDE and our restricted ABCD datasets. The implementation is
available at https://github.com/Wayfear/BrainNetworkTransformer.
- Abstract(参考訳): 人間の脳は一般的に、関心の領域(ROI)のネットワークとしてモデル化され、脳機能や精神障害を理解するためのそれらの接続としてモデル化される。
近年、グラフを含む様々な種類のデータに対してトランスフォーマーモデルが研究されており、性能向上が期待されている。
本研究では,脳ネットワーク解析のためのトランスフォーマーモデルについて検討する。
データのユニークな特性によって、脳ネットワークを一定のサイズと順序のノードを持つグラフとしてモデル化し、(1)接続プロファイルをノードの特徴として使用して、自然で低コストな位置情報を提供し、(2)rois間のペアワイズ接続強度を、下流解析タスクに予測可能な個人間で効率的に学習する。
さらに,自己教師付きソフトクラスタリングと正則投影に基づくオルソノーマルクラスタリング読み出し操作を提案する。
この設計はroisのグループ間で類似した振る舞いを決定づけ、クラスタ対応ノード埋め込みと有益グラフ埋め込みを区別する基礎となる機能モジュールを規定している。
最後に、abideの一般公開された大規模脳ネットワークデータセットで評価パイプラインを再標準化し、異なるモデルの有意義な比較を可能にした。
実験の結果,提案したBrain Network Transformerは,公開ABIDEと制限されたABCDデータセットの両方で明らかに改善されている。
実装はhttps://github.com/Wayfear/BrainNetworkTransformerで公開されている。
関連論文リスト
- Cognitive Networks and Performance Drive fMRI-Based State Classification Using DNN Models [0.0]
我々は、個々の認知状態を分類するために、構造的に異なる2つのDNNモデルと相補的なDNNモデルを用いる。
アーキテクチャ上の違いにもかかわらず、両者のモデルが常に予測精度と個人の認知性能との間に堅牢な関係を生んでいることを示す。
論文 参考訳(メタデータ) (2024-08-14T15:25:51Z) - Predicting Infant Brain Connectivity with Federated Multi-Trajectory
GNNs using Scarce Data [54.55126643084341]
既存のディープラーニングソリューションには,3つの大きな制限がある。
我々はフェデレートグラフベースの多軌道進化ネットワークであるFedGmTE-Net++を紹介する。
フェデレーションの力を利用して、限られたデータセットを持つ多種多様な病院の地域学習を集約する。
論文 参考訳(メタデータ) (2024-01-01T10:20:01Z) - PTGB: Pre-Train Graph Neural Networks for Brain Network Analysis [39.16619345610152]
臨床結果に関係なく,脳内ネットワーク構造をキャプチャするGNN事前学習フレームワークPTGBを提案する。
PTGBは,(1)脳ネットワークに特化して設計された教師なし事前学習技術で,タスク固有のラベルを持たない大規模データセットからの学習を可能にすること,(2)異なるROIシステムを持つデータセット間の知識伝達を容易にするデータ駆動型パーセルレーションアトラスマッピングパイプラインである。
論文 参考訳(メタデータ) (2023-05-20T21:07:47Z) - Multi-Head Graph Convolutional Network for Structural Connectome
Classification [8.658134276685404]
グラフ畳み込みネットワーク(GCN)にインスパイアされた機械学習モデルを提案する。
提案するネットワークは,エッジとノードに着目したグラフ畳み込みを含む,異なるヘッドを用いたシンプルな設計である。
脳接続データから補完的特徴と代表的特徴を抽出する能力をテストするため,私たちは性分類の課題を選択した。
論文 参考訳(メタデータ) (2023-05-02T15:04:30Z) - Functional Neural Networks: Shift invariant models for functional data
with applications to EEG classification [0.0]
我々は、データのスムーズさを保ちながら不変な新しいタイプのニューラルネットワークを導入する:関数型ニューラルネットワーク(FNN)
そこで我々は,多層パーセプトロンと畳み込みニューラルネットワークを機能データに拡張するために,機能データ分析(FDA)の手法を用いる。
脳波(EEG)データの分類にFNNをうまく利用し,FDAのベンチマークモデルより優れていることを示す。
論文 参考訳(メタデータ) (2023-01-14T09:41:21Z) - Data-driven emergence of convolutional structure in neural networks [83.4920717252233]
識別タスクを解くニューラルネットワークが、入力から直接畳み込み構造を学習できることを示す。
データモデルを慎重に設計することにより、このパターンの出現は、入力の非ガウス的、高次局所構造によって引き起こされることを示す。
論文 参考訳(メタデータ) (2022-02-01T17:11:13Z) - Simplifying approach to Node Classification in Graph Neural Networks [7.057970273958933]
グラフニューラルネットワークのノード特徴集約ステップと深さを分離し、異なる集約特徴が予測性能にどのように寄与するかを経験的に分析する。
集約ステップによって生成された全ての機能が有用であるとは限らないことを示し、これらの少ない情報的特徴を用いることは、GNNモデルの性能に有害であることを示す。
提案モデルでは,提案モデルが最先端のGNNモデルと同等あるいはそれ以上の精度を達成可能であることを実証的に示す。
論文 参考訳(メタデータ) (2021-11-12T14:53:22Z) - Explicit Pairwise Factorized Graph Neural Network for Semi-Supervised
Node Classification [59.06717774425588]
本稿では,グラフ全体を部分的に観測されたマルコフ確率場としてモデル化するEPFGNN(Explicit Pairwise Factorized Graph Neural Network)を提案する。
出力-出力関係をモデル化するための明示的なペアワイズ要素を含み、入力-出力関係をモデル化するためにGNNバックボーンを使用する。
本研究では,グラフ上での半教師付きノード分類の性能を効果的に向上できることを示す。
論文 参考訳(メタデータ) (2021-07-27T19:47:53Z) - Pre-Trained Models for Heterogeneous Information Networks [57.78194356302626]
異種情報ネットワークの特徴を捉えるための自己教師付き事前学習・微調整フレームワークPF-HINを提案する。
PF-HINは4つのデータセットにおいて、各タスクにおける最先端の代替よりも一貫して、大幅に優れています。
論文 参考訳(メタデータ) (2020-07-07T03:36:28Z) - The Heterogeneity Hypothesis: Finding Layer-Wise Differentiated Network
Architectures [179.66117325866585]
我々は、通常見過ごされる設計空間、すなわち事前定義されたネットワークのチャネル構成を調整することを検討する。
この調整は、拡張ベースラインネットワークを縮小することで実現でき、性能が向上する。
画像分類、視覚追跡、画像復元のための様々なネットワークとデータセットで実験を行う。
論文 参考訳(メタデータ) (2020-06-29T17:59:26Z) - Model Fusion via Optimal Transport [64.13185244219353]
ニューラルネットワークのための階層モデル融合アルゴリズムを提案する。
これは、不均一な非i.d.データに基づいてトレーニングされたニューラルネットワーク間での"ワンショット"な知識伝達に成功していることを示す。
論文 参考訳(メタデータ) (2019-10-12T22:07:15Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。