論文の概要: Transformer and Snowball Graph Convolution Learning for Biomedical Graph
Classification
- arxiv url: http://arxiv.org/abs/2303.16132v1
- Date: Tue, 28 Mar 2023 16:56:47 GMT
- ステータス: 処理完了
- システム内更新日: 2023-03-29 14:11:52.531654
- Title: Transformer and Snowball Graph Convolution Learning for Biomedical Graph
Classification
- Title(参考訳): バイオメディカルグラフ分類のためのトランスフォーマーと雪玉グラフ畳み込み学習
- Authors: Jinlong Hu, Yangmin Huang, Shoubin Dong
- Abstract要約: 本稿では,バイオメディカルグラフ分類のためのトランスフォーマーと雪玉符号化ネットワーク(TSEN)を提案する。
TSENは、雪玉符号化層によるグラフ雪玉接続とグラフトランスフォーマーを組み合わせることで、マルチスケール情報を取得する能力を高めた。
4つのグラフ分類データセットを用いて実験したところ、TSENは最先端の典型的なGNNモデルよりも優れていた。
- 参考スコア(独自算出の注目度): 2.127049691404299
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Graph or network has been widely used for describing and modeling complex
systems in biomedicine. Deep learning methods, especially graph neural networks
(GNNs), have been developed to learn and predict with such structured data. In
this paper, we proposed a novel transformer and snowball encoding networks
(TSEN) for biomedical graph classification, which introduced transformer
architecture with graph snowball connection into GNNs for learning whole-graph
representation. TSEN combined graph snowball connection with graph transformer
by snowball encoding layers, which enhanced the power to capture multi-scale
information and global patterns to learn the whole-graph features. On the other
hand, TSEN also used snowball graph convolution as position embedding in
transformer structure, which was a simple yet effective method for capturing
local patterns naturally. Results of experiments using four graph
classification datasets demonstrated that TSEN outperformed the
state-of-the-art typical GNN models and the graph-transformer based GNN models.
- Abstract(参考訳): グラフやネットワークは、生体医学における複雑なシステムの記述とモデリングに広く用いられている。
深層学習法、特にグラフニューラルネットワーク(GNN)は、そのような構造化データを用いて学習し、予測するために開発されている。
本稿では,gnnにグラフ雪球接続を備えたトランスフォーマーアーキテクチャを導入した,生物医学的グラフ分類のための新しいトランスフォーマーおよび雪球符号化ネットワーク(tsen)を提案する。
TSENは、グラフ雪玉接続と、雪玉符号化層によるグラフトランスフォーマーを組み合わせることで、マルチスケール情報とグローバルパターンを捕捉し、グラフ全体の特徴を学習する能力を高めた。
一方、TSENは雪玉グラフの畳み込みを変圧器構造に埋め込まれた位置埋め込みとして用いた。
4つのグラフ分類データセットを用いた実験の結果、TSENは最先端の典型的なGNNモデルとグラフ変換器ベースのGNNモデルよりも優れていた。
関連論文リスト
- CNN2GNN: How to Bridge CNN with GNN [59.42117676779735]
蒸留によりCNNとGNNを統一する新しいCNN2GNNフレームワークを提案する。
Mini-ImageNetにおける蒸留ブースターの2層GNNの性能は、ResNet152のような数十層を含むCNNよりもはるかに高い。
論文 参考訳(メタデータ) (2024-04-23T08:19:08Z) - Graph Neural Networks for Learning Equivariant Representations of Neural Networks [55.04145324152541]
本稿では,ニューラルネットワークをパラメータの計算グラフとして表現することを提案する。
我々のアプローチは、ニューラルネットワークグラフを多種多様なアーキテクチャでエンコードする単一モデルを可能にする。
本稿では,暗黙的ニューラル表現の分類や編集など,幅広いタスクにおける本手法の有効性を示す。
論文 参考訳(メタデータ) (2024-03-18T18:01:01Z) - Graph Neural Networks Provably Benefit from Structural Information: A
Feature Learning Perspective [53.999128831324576]
グラフニューラルネットワーク(GNN)は、グラフ表現学習の先駆けとなった。
本研究では,特徴学習理論の文脈におけるグラフ畳み込みの役割について検討する。
論文 参考訳(メタデータ) (2023-06-24T10:21:11Z) - NAR-Former V2: Rethinking Transformer for Universal Neural Network
Representation Learning [25.197394237526865]
本稿では,トランスフォーマーに基づく汎用ニューラルネットワーク表現学習モデル NAR-Former V2 を提案する。
具体的には、ネットワークをグラフとして取り、簡単なトークン化器を設計して、ネットワークをシーケンスにエンコードする。
我々は,GNNの帰納的表現学習能力をTransformerに組み込んだ。
論文 参考訳(メタデータ) (2023-06-19T09:11:04Z) - Brain Network Transformer [13.239896897835191]
脳ネットワーク解析のためのトランスフォーマーモデルについて検討する。
データの特徴によって駆動される私たちは、脳ネットワークを、一定のサイズと順序のノードを持つグラフとしてモデル化します。
我々は、ABIDEの大規模脳ネットワークデータセットとして唯一公開されているものについて、評価パイプラインを再標準化する。
論文 参考訳(メタデータ) (2022-10-13T02:30:06Z) - Parameter Convex Neural Networks [13.42851919291587]
本研究では,ある条件下でのニューラルネットワークのパラメータに関して凸である指数的多層ニューラルネットワーク(EMLP)を提案する。
後期実験では,指数グラフ畳み込みネットワーク(EGCN)を同じアーキテクチャで構築し,グラフ分類データセット上で実験を行う。
論文 参考訳(メタデータ) (2022-06-11T16:44:59Z) - Spiking Graph Convolutional Networks [19.36064180392385]
SpikingGCNは、GCNの埋め込みとSNNの生体忠実性特性を統合することを目的としたエンドツーエンドフレームワークである。
ニューロモルフィックチップ上でのスパイキングGCNは、グラフデータ解析にエネルギー効率の明確な利点をもたらすことを示す。
論文 参考訳(メタデータ) (2022-05-05T16:44:36Z) - Graph Neural Networks with Learnable Structural and Positional
Representations [83.24058411666483]
任意のグラフの大きな問題は、ノードの標準位置情報の欠如である。
ノードの位置ノード(PE)を導入し、Transformerのように入力層に注入する。
両方のGNNクラスで学習可能なPEを考えると、分子データセットのパフォーマンスは2.87%から64.14%に向上する。
論文 参考訳(メタデータ) (2021-10-15T05:59:15Z) - A Unified View on Graph Neural Networks as Graph Signal Denoising [49.980783124401555]
グラフニューラルネットワーク(GNN)は,グラフ構造化データの学習表現において顕著に普及している。
本研究では,代表的GNNモデル群における集約過程を,グラフ記述問題の解法とみなすことができることを数学的に確立する。
UGNNから派生した新しいGNNモデルADA-UGNNをインスタンス化し、ノード間の適応的滑らかさでグラフを処理する。
論文 参考訳(メタデータ) (2020-10-05T04:57:18Z) - Graphs, Convolutions, and Neural Networks: From Graph Filters to Graph
Neural Networks [183.97265247061847]
我々はグラフ信号処理を活用してグラフニューラルネットワーク(GNN)の表現空間を特徴付ける。
GNNにおけるグラフ畳み込みフィルタの役割について議論し、そのようなフィルタで構築されたアーキテクチャは、置換同値の基本的な性質と位相変化に対する安定性を持つことを示す。
また,ロボット群に対するリコメンデータシステムや分散型コントローラの学習におけるGNNの利用について検討した。
論文 参考訳(メタデータ) (2020-03-08T13:02:15Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。