論文の概要: Message Detouring: A Simple Yet Effective Cycle Representation for
Expressive Graph Learning
- arxiv url: http://arxiv.org/abs/2402.08085v1
- Date: Mon, 12 Feb 2024 22:06:37 GMT
- ステータス: 処理完了
- システム内更新日: 2024-02-14 17:31:15.406608
- Title: Message Detouring: A Simple Yet Effective Cycle Representation for
Expressive Graph Learning
- Title(参考訳): メッセージデトリング:表現力のあるグラフ学習のためのシンプルで効果的なサイクル表現
- Authors: Ziquan Wei, Tingting Dan, Guorong Wu
- Abstract要約: グラフ全体のサイクル表現を階層的に特徴付けるために,テキストデツーリングの概念を導入する。
メッセージのデツーリングは、さまざまなベンチマークデータセットにおいて、現在の競合するアプローチを大幅に上回る可能性がある。
- 参考スコア(独自算出の注目度): 4.085624738017079
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Graph learning is crucial in the fields of bioinformatics, social networks,
and chemicals. Although high-order graphlets, such as cycles, are critical to
achieving an informative graph representation for node classification, edge
prediction, and graph recognition, modeling high-order topological
characteristics poses significant computational challenges, restricting its
widespread applications in machine learning. To address this limitation, we
introduce the concept of \textit{message detouring} to hierarchically
characterize cycle representation throughout the entire graph, which
capitalizes on the contrast between the shortest and longest pathways within a
range of local topologies associated with each graph node. The topological
feature representations derived from our message detouring landscape
demonstrate comparable expressive power to high-order
\textit{Weisfeiler-Lehman} (WL) tests but much less computational demands. In
addition to the integration with graph kernel and message passing neural
networks, we present a novel message detouring neural network, which uses
Transformer backbone to integrate cycle representations across nodes and edges.
Aside from theoretical results, experimental results on expressiveness, graph
classification, and node classification show message detouring can
significantly outperform current counterpart approaches on various benchmark
datasets.
- Abstract(参考訳): グラフ学習は、バイオインフォマティクス、ソーシャルネットワーク、化学物質の分野で重要である。
周期のような高次グラフレットは、ノード分類、エッジ予測、グラフ認識のための情報グラフ表現を達成するために重要であるが、高次トポロジ特性のモデリングは、機械学習におけるその広範な応用を制限する重要な計算課題を生じさせる。
この制限に対処するために、各グラフノードに関連付けられた様々な局所トポロジ内の最短経路と最長経路のコントラストを生かした、グラフ全体のサイクル表現を階層的に特徴付けるための \textit{message detouring}の概念を導入する。
我々のメッセージデトゥーリングランドスケープから導かれるトポロジカル特徴表現は、高次 \textit{Weisfeiler-Lehman} (WL) テストに匹敵する表現力を示すが、計算要求ははるかに少ない。
本稿では,グラフカーネルとメッセージパッシングニューラルネットワークとの統合に加えて,トランスフォーマーバックボーンを使用してノードとエッジ間のサイクル表現を統合する,新たなメッセージデトリングニューラルネットワークを提案する。
理論的な結果とは別に、表現性、グラフ分類、ノード分類の実験結果は、様々なベンチマークデータセットの現在のアプローチを大きく上回る可能性があることを示している。
関連論文リスト
- Unveiling Global Interactive Patterns across Graphs: Towards Interpretable Graph Neural Networks [31.29616732552006]
グラフニューラルネットワーク(GNN)は、グラフマイニングの著名なフレームワークとして登場した。
本稿では,グラフ分類に内在的に解釈可能な新しい手法を提案する。
グローバル対話パターン(GIP)学習は、学習可能なグローバル対話パターンを導入し、決定を明示的に解釈する。
論文 参考訳(メタデータ) (2024-07-02T06:31:13Z) - State of the Art and Potentialities of Graph-level Learning [54.68482109186052]
グラフレベルの学習は、比較、回帰、分類など、多くのタスクに適用されている。
グラフの集合を学習する伝統的なアプローチは、サブストラクチャのような手作りの特徴に依存している。
ディープラーニングは、機能を自動的に抽出し、グラフを低次元表現に符号化することで、グラフレベルの学習をグラフの規模に適応させるのに役立っている。
論文 参考訳(メタデータ) (2023-01-14T09:15:49Z) - Shortest Path Networks for Graph Property Prediction [13.986963122264632]
ほとんどのグラフニューラルネットワークモデルは、グラフのノード表現を直接近傍の各ノードに反復的に伝播するという、特定のメッセージパッシングパラダイムに依存している。
本稿では,最短経路近傍の各ノードにグラフのノード表現を伝搬する最短経路メッセージパッシングニューラルネットワークを提案する。
我々のフレームワークは、メッセージパッシングニューラルネットワークを一般化し、より表現力のあるモデルをもたらす。
論文 参考訳(メタデータ) (2022-06-02T12:04:29Z) - Hyperbolic Graph Neural Networks: A Review of Methods and Applications [55.5502008501764]
グラフニューラルネットワークは、従来のニューラルネットワークをグラフ構造化データに一般化する。
グラフ関連学習におけるユークリッドモデルの性能は、ユークリッド幾何学の表現能力によって依然として制限されている。
近年,木のような構造を持つグラフデータ処理や,ゆるい分布の処理において,双曲空間が人気が高まっている。
論文 参考訳(メタデータ) (2022-02-28T15:08:48Z) - Graph Decipher: A transparent dual-attention graph neural network to
understand the message-passing mechanism for the node classification [2.0047096160313456]
本稿では,メッセージパッシング機構を調べるために,Graph Decipherと呼ばれる新しい透過型ネットワークを提案する。
本アルゴリズムは,ノード分類タスクの負荷を大幅に低減しつつ,最先端の性能を実現する。
論文 参考訳(メタデータ) (2022-01-04T23:24:00Z) - Learning the Implicit Semantic Representation on Graph-Structured Data [57.670106959061634]
グラフ畳み込みネットワークにおける既存の表現学習手法は主に、各ノードの近傍を知覚全体として記述することで設計される。
本稿では,グラフの潜在意味パスを学習することで暗黙的な意味を探索する意味グラフ畳み込みネットワーク(sgcn)を提案する。
論文 参考訳(メタデータ) (2021-01-16T16:18:43Z) - Co-embedding of Nodes and Edges with Graph Neural Networks [13.020745622327894]
グラフ埋め込みは、高次元および非ユークリッド特徴空間でデータ構造を変換しエンコードする方法である。
CensNetは一般的なグラフ埋め込みフレームワークで、ノードとエッジの両方を潜在機能空間に埋め込む。
提案手法は,4つのグラフ学習課題における最先端のパフォーマンスを達成または一致させる。
論文 参考訳(メタデータ) (2020-10-25T22:39:31Z) - Towards Deeper Graph Neural Networks [63.46470695525957]
グラフ畳み込みは近傍の集約を行い、最も重要なグラフ操作の1つである。
いくつかの最近の研究で、この性能劣化は過度に滑らかな問題に起因している。
本研究では,大きな受容領域からの情報を適応的に組み込むディープ適応グラフニューラルネットワーク(DAGNN)を提案する。
論文 参考訳(メタデータ) (2020-07-18T01:11:14Z) - Graph Pooling with Node Proximity for Hierarchical Representation
Learning [80.62181998314547]
本稿では,ノード近接を利用したグラフプーリング手法を提案し,そのマルチホップトポロジを用いたグラフデータの階層的表現学習を改善する。
その結果,提案したグラフプーリング戦略は,公開グラフ分類ベンチマークデータセットの集合において,最先端のパフォーマンスを達成できることが示唆された。
論文 参考訳(メタデータ) (2020-06-19T13:09:44Z) - GCC: Graph Contrastive Coding for Graph Neural Network Pre-Training [62.73470368851127]
グラフ表現学習は現実世界の問題に対処する強力な手法として登場した。
自己教師付きグラフニューラルネットワーク事前トレーニングフレームワークであるGraph Contrastive Codingを設計する。
3つのグラフ学習タスクと10のグラフデータセットについて実験を行った。
論文 参考訳(メタデータ) (2020-06-17T16:18:35Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。