論文の概要: A Simple yet Effective Method for Graph Classification
- arxiv url: http://arxiv.org/abs/2206.02404v1
- Date: Mon, 6 Jun 2022 07:24:44 GMT
- ステータス: 処理完了
- システム内更新日: 2022-06-07 13:59:48.162355
- Title: A Simple yet Effective Method for Graph Classification
- Title(参考訳): グラフ分類の簡易かつ効果的な方法
- Authors: Junran Wu, Shangzhe Li, Jianhao Li, Yicheng Pan and Ke Xu
- Abstract要約: 学習過程を簡素化しつつ,グラフ分類性能の向上の可能性を検討する。
グラフ上の構造エントロピーにヒントを得て、データサンプルをグラフからコードツリーに変換する。
本稿では,木カーネルと畳み込みネットワークを提案し,グラフ分類の手法を実装した。
- 参考スコア(独自算出の注目度): 7.397201068210497
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: In deep neural networks, better results can often be obtained by increasing
the complexity of previously developed basic models. However, it is unclear
whether there is a way to boost performance by decreasing the complexity of
such models. Intuitively, given a problem, a simpler data structure comes with
a simpler algorithm. Here, we investigate the feasibility of improving graph
classification performance while simplifying the learning process. Inspired by
structural entropy on graphs, we transform the data sample from graphs to
coding trees, which is a simpler but essential structure for graph data.
Furthermore, we propose a novel message passing scheme, termed hierarchical
reporting, in which features are transferred from leaf nodes to root nodes by
following the hierarchical structure of coding trees. We then present a tree
kernel and a convolutional network to implement our scheme for graph
classification. With the designed message passing scheme, the tree kernel and
convolutional network have a lower runtime complexity of $O(n)$ than
Weisfeiler-Lehman subtree kernel and other graph neural networks of at least
$O(hm)$. We empirically validate our methods with several graph classification
benchmarks and demonstrate that they achieve better performance and lower
computational consumption than competing approaches.
- Abstract(参考訳): ディープニューラルネットワークでは、従来開発された基本モデルの複雑さを増大させることで、よりよい結果が得られることが多い。
しかし、そのようなモデルの複雑さを減らして性能を高める方法があるかどうかは不明である。
直感的には、単純なデータ構造には単純なアルゴリズムが伴う。
本稿では,学習過程を簡素化しつつ,グラフ分類性能の向上の可能性を検討する。
グラフ上の構造的エントロピーに触発されて、データサンプルをグラフからコーディングツリーに変換します。
さらに,木構造に従えば,葉ノードから根ノードへ特徴を伝達する,階層的レポーティング(hierarchical reporting)と呼ばれる新しいメッセージパッシング手法を提案する。
次に木カーネルと畳み込みネットワークを示し、グラフ分類のためのスキームを実装した。
設計されたメッセージパッシングスキームにより、ツリーカーネルと畳み込みネットワークは、weisfeiler-lehmanサブツリーカーネルや他のグラフニューラルネットワークの少なくとも$o(hm)$よりも、実行時の複雑さが低くなる。
本手法をいくつかのグラフ分類ベンチマークを用いて実証的に検証し,性能と計算消費率を比較検討した。
関連論文リスト
- CliquePH: Higher-Order Information for Graph Neural Networks through Persistent Homology on Clique Graphs [15.044471983688249]
本稿では,グラフ内の高次構造に関する情報を抽出する新しい手法を提案する。
テスト精度は最大で31%向上する。
論文 参考訳(メタデータ) (2024-09-12T16:56:26Z) - Efficient Heterogeneous Graph Learning via Random Projection [58.4138636866903]
不均一グラフニューラルネットワーク(HGNN)は、異種グラフを深層学習するための強力なツールである。
最近のプリ計算ベースのHGNNは、一時間メッセージパッシングを使用して不均一グラフを正規形テンソルに変換する。
我々はRandom Projection Heterogeneous Graph Neural Network (RpHGNN) というハイブリッド計算前HGNNを提案する。
論文 参考訳(メタデータ) (2023-10-23T01:25:44Z) - NodeFormer: A Scalable Graph Structure Learning Transformer for Node
Classification [70.51126383984555]
本稿では,任意のノード間のノード信号を効率的に伝搬する全ペアメッセージパッシング方式を提案する。
効率的な計算は、カーナライズされたGumbel-Softmax演算子によって実現される。
グラフ上のノード分類を含む様々なタスクにおいて,本手法の有望な有効性を示す実験を行った。
論文 参考訳(メタデータ) (2023-06-14T09:21:15Z) - A Robust Stacking Framework for Training Deep Graph Models with
Multifaceted Node Features [61.92791503017341]
数値ノード特徴とグラフ構造を入力とするグラフニューラルネットワーク(GNN)は,グラフデータを用いた各種教師付き学習タスクにおいて,優れた性能を示した。
IID(non-graph)データをGNNに簡単に組み込むことはできない。
本稿では、グラフ認識の伝播をIDデータに意図した任意のモデルで融合するロバストな積み重ねフレームワークを提案する。
論文 参考訳(メタデータ) (2022-06-16T22:46:33Z) - Optimal Propagation for Graph Neural Networks [51.08426265813481]
最適グラフ構造を学習するための二段階最適化手法を提案する。
また、時間的複雑さをさらに軽減するために、低ランク近似モデルについても検討する。
論文 参考訳(メタデータ) (2022-05-06T03:37:00Z) - Structural Optimization Makes Graph Classification Simpler and Better [5.770986723520119]
モデル学習プロセスを簡素化しつつ,グラフ分類性能の向上の可能性を検討する。
構造情報アセスメントの進歩に触発されて、グラフから木をコードするデータサンプルを最適化する。
本稿では,木カーネルと畳み込みネットワークにこのスキームを実装し,グラフ分類を行う。
論文 参考訳(メタデータ) (2021-09-05T08:54:38Z) - Self-Supervised Deep Graph Embedding with High-Order Information Fusion
for Community Discovery [3.6002285517472767]
提案アルゴリズムは,複数の深部グラフ畳み込みニューラルネットワークを学習するために,自己教師機構とグラフの高次情報を用いている。
複数のグラフ畳み込みニューラルネットワークの出力を融合して、グラフの属性と構造情報を含むノードの表現を抽出する。
論文 参考訳(メタデータ) (2021-02-05T17:22:28Z) - Representation Learning of Reconstructed Graphs Using Random Walk Graph
Convolutional Network [12.008472517000651]
グラフのノード特異的なメソスコピック構造を得るためにランダムウォークを利用する新しいフレームワークであるwGCNを提案する。
高次局所構造情報を組み合わせることで、ネットワークの可能性をより効率的に探究できると信じている。
論文 参考訳(メタデータ) (2021-01-02T10:31:14Z) - Graph Pooling with Node Proximity for Hierarchical Representation
Learning [80.62181998314547]
本稿では,ノード近接を利用したグラフプーリング手法を提案し,そのマルチホップトポロジを用いたグラフデータの階層的表現学習を改善する。
その結果,提案したグラフプーリング戦略は,公開グラフ分類ベンチマークデータセットの集合において,最先端のパフォーマンスを達成できることが示唆された。
論文 参考訳(メタデータ) (2020-06-19T13:09:44Z) - Geometrically Principled Connections in Graph Neural Networks [66.51286736506658]
我々は、幾何学的深層学習の新興分野におけるイノベーションの原動力は、幾何が依然として主要な推進力であるべきだと論じている。
グラフニューラルネットワークとコンピュータグラフィックスとデータ近似モデルとの関係:放射基底関数(RBF)
完全連結層とグラフ畳み込み演算子を組み合わせた新しいビルディングブロックであるアフィンスキップ接続を導入する。
論文 参考訳(メタデータ) (2020-04-06T13:25:46Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。