論文の概要: DOTIN: Dropping Task-Irrelevant Nodes for GNNs
- arxiv url: http://arxiv.org/abs/2204.13429v1
- Date: Thu, 28 Apr 2022 12:00:39 GMT
- ステータス: 処理完了
- システム内更新日: 2022-04-29 21:03:45.473377
- Title: DOTIN: Dropping Task-Irrelevant Nodes for GNNs
- Title(参考訳): DOTIN: GNNのタスク関連ノードのドロップ
- Authors: Shaofeng Zhang, Feng Zhu, Junchi Yan, Rui Zhao, Xiaokang Yang
- Abstract要約: 最近のグラフ学習アプローチでは、学習のためのグラフのサイズを減らすためのプール戦略が導入されている。
我々はDOTIN(underlineDrunderlineopping underlineTask-underlineIrrelevant underlineNodes)と呼ばれる新しいアプローチを設計し、グラフのサイズを減らす。
本手法は,グラフ分類やグラフ編集距離を含むグラフレベルのタスクにおいて,GATを約50%高速化する。
- 参考スコア(独自算出の注目度): 119.17997089267124
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Scalability is an important consideration for deep graph neural networks.
Inspired by the conventional pooling layers in CNNs, many recent graph learning
approaches have introduced the pooling strategy to reduce the size of graphs
for learning, such that the scalability and efficiency can be improved.
However, these pooling-based methods are mainly tailored to a single
graph-level task and pay more attention to local information, limiting their
performance in multi-task settings which often require task-specific global
information. In this paper, departure from these pooling-based efforts, we
design a new approach called DOTIN (\underline{D}r\underline{o}pping
\underline{T}ask-\underline{I}rrelevant \underline{N}odes) to reduce the size
of graphs. Specifically, by introducing $K$ learnable virtual nodes to
represent the graph embeddings targeted to $K$ different graph-level tasks,
respectively, up to 90\% raw nodes with low attentiveness with an attention
model -- a transformer in this paper, can be adaptively dropped without notable
performance decreasing. Achieving almost the same accuracy, our method speeds
up GAT by about 50\% on graph-level tasks including graph classification and
graph edit distance (GED) with about 60\% less memory, on D\&D dataset. Code
will be made publicly available in https://github.com/Sherrylone/DOTIN.
- Abstract(参考訳): スケーラビリティはディープグラフニューラルネットワークの重要な考慮事項である。
CNNの従来のプーリング層にインスパイアされた最近のグラフ学習アプローチでは、スケーラビリティと効率性を改善するために、学習用のグラフのサイズを減らすためのプーリング戦略が導入されている。
しかし、これらのプーリングベースのメソッドは、主に単一のグラフレベルのタスクに調整され、ローカル情報により多くの注意を払って、タスク固有のグローバル情報を必要とするマルチタスク設定のパフォーマンスを制限する。
本稿では、これらのプーリングに基づく取り組みから離れ、グラフのサイズを減らすために、DOTIN (\underline{D}r\underline{o}pping \underline{T}ask-\underline{I}rrelevant \underline{N}odes) と呼ばれる新しいアプローチを設計する。
具体的には、K$の学習可能な仮想ノードを導入して、それぞれK$の異なるグラフレベルのタスクを対象とするグラフ埋め込みを表現することで、注意モデルによる注意力の低い生ノードの最大90%が、顕著なパフォーマンス低下を伴わずに適応的にドロップできる。
ほぼ同じ精度で、グラフ分類やグラフ編集距離(GED)を含むグラフレベルのタスクでは、D\&Dデータセットでは、約60\%のメモリでGATを約50%高速化する。
コードはhttps://github.com/Sherrylone/DOTINで公開される。
関連論文リスト
- Faster Inference Time for GNNs using coarsening [1.323700980948722]
粗い手法はグラフを小さくするために使われ、計算が高速化される。
これまでの調査では、推論中にコストに対処できなかった。
本稿では, サブグラフベース手法によるGNNのスケーラビリティ向上のための新しい手法を提案する。
論文 参考訳(メタデータ) (2024-10-19T06:27:24Z) - Learning on Large Graphs using Intersecting Communities [13.053266613831447]
MPNNは、各ノードの隣人からのメッセージを集約することで、入力グラフ内の各ノードの表現を反復的に更新する。
MPNNは、あまりスパースではないため、すぐに大きなグラフの禁止になるかもしれない。
本稿では,入力グラフを交差するコミュニティグラフ (ICG) として近似することを提案する。
論文 参考訳(メタデータ) (2024-05-31T09:26:26Z) - Efficient Heterogeneous Graph Learning via Random Projection [58.4138636866903]
不均一グラフニューラルネットワーク(HGNN)は、異種グラフを深層学習するための強力なツールである。
最近のプリ計算ベースのHGNNは、一時間メッセージパッシングを使用して不均一グラフを正規形テンソルに変換する。
我々はRandom Projection Heterogeneous Graph Neural Network (RpHGNN) というハイブリッド計算前HGNNを提案する。
論文 参考訳(メタデータ) (2023-10-23T01:25:44Z) - NodeFormer: A Scalable Graph Structure Learning Transformer for Node
Classification [70.51126383984555]
本稿では,任意のノード間のノード信号を効率的に伝搬する全ペアメッセージパッシング方式を提案する。
効率的な計算は、カーナライズされたGumbel-Softmax演算子によって実現される。
グラフ上のノード分類を含む様々なタスクにおいて,本手法の有望な有効性を示す実験を行った。
論文 参考訳(メタデータ) (2023-06-14T09:21:15Z) - A Robust Stacking Framework for Training Deep Graph Models with
Multifaceted Node Features [61.92791503017341]
数値ノード特徴とグラフ構造を入力とするグラフニューラルネットワーク(GNN)は,グラフデータを用いた各種教師付き学習タスクにおいて,優れた性能を示した。
IID(non-graph)データをGNNに簡単に組み込むことはできない。
本稿では、グラフ認識の伝播をIDデータに意図した任意のモデルで融合するロバストな積み重ねフレームワークを提案する。
論文 参考訳(メタデータ) (2022-06-16T22:46:33Z) - Neural Graph Matching for Pre-training Graph Neural Networks [72.32801428070749]
グラフニューラルネットワーク(GNN)は、構造データのモデリングにおいて強力な能力を示している。
GMPTと呼ばれる新しいグラフマッチングベースのGNN事前学習フレームワークを提案する。
提案手法は,完全自己指導型プレトレーニングと粗粒型プレトレーニングに適用できる。
論文 参考訳(メタデータ) (2022-03-03T09:53:53Z) - Co-embedding of Nodes and Edges with Graph Neural Networks [13.020745622327894]
グラフ埋め込みは、高次元および非ユークリッド特徴空間でデータ構造を変換しエンコードする方法である。
CensNetは一般的なグラフ埋め込みフレームワークで、ノードとエッジの両方を潜在機能空間に埋め込む。
提案手法は,4つのグラフ学習課題における最先端のパフォーマンスを達成または一致させる。
論文 参考訳(メタデータ) (2020-10-25T22:39:31Z) - Scaling Graph Neural Networks with Approximate PageRank [64.92311737049054]
GNNにおける情報拡散の効率的な近似を利用したPPRGoモデルを提案する。
高速であることに加えて、PPRGoは本質的にスケーラブルであり、業界設定で見られるような大規模なデータセットに対して、自明に並列化することができる。
このグラフのすべてのノードに対するPPRGoのトレーニングとラベルの予測には1台のマシンで2分未満で、同じグラフ上の他のベースラインをはるかに上回ります。
論文 参考訳(メタデータ) (2020-07-03T09:30:07Z) - Hierarchical Representation Learning in Graph Neural Networks with Node Decimation Pooling [31.812988573924674]
グラフニューラルネットワーク(GNN)では、プール演算子は入力グラフの局所的な要約を計算し、そのグローバルな特性をキャプチャする。
グラフトポロジ全体を保存しながら粗いグラフを生成するGNNのためのプール演算子であるNode Decimation Pooling (NDP)を提案する。
NDPは、最先端のグラフプーリング演算子よりも効率的であり、同時に、様々なグラフ分類タスクにおける競合性能にも達する。
論文 参考訳(メタデータ) (2019-10-24T21:42:12Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。