論文の概要: Revisiting the Necessity of Graph Learning and Common Graph Benchmarks
- arxiv url: http://arxiv.org/abs/2412.06173v1
- Date: Mon, 09 Dec 2024 03:09:04 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-12-10 14:58:11.575410
- Title: Revisiting the Necessity of Graph Learning and Common Graph Benchmarks
- Title(参考訳): グラフ学習と共通グラフベンチマークの必要性を再考する
- Authors: Isay Katsman, Ethan Lou, Anna Gilbert,
- Abstract要約: グラフ機械学習は、グラフコンテキストにおけるディープラーニングの導入以来、人気が高まってきた。
ノード機能はこれらのタスクに不十分であるため、ベンチマークのパフォーマンスはグラフ学習の改善を正確に反映している。
驚くべきことに、ノード機能はこれらのタスクで十分であることが多い。
- 参考スコア(独自算出の注目度): 2.1125997983972207
- License:
- Abstract: Graph machine learning has enjoyed a meteoric rise in popularity since the introduction of deep learning in graph contexts. This is no surprise due to the ubiquity of graph data in large scale industrial settings. Tacitly assumed in all graph learning tasks is the separation of the graph structure and node features: node features strictly encode individual data while the graph structure consists only of pairwise interactions. The driving belief is that node features are (by themselves) insufficient for these tasks, so benchmark performance accurately reflects improvements in graph learning. In our paper, we challenge this orthodoxy by showing that, surprisingly, node features are oftentimes more-than-sufficient for many common graph benchmarks, breaking this critical assumption. When comparing against a well-tuned feature-only MLP baseline on seven of the most commonly used graph learning datasets, one gains little benefit from using graph structure on five datasets. We posit that these datasets do not benefit considerably from graph learning because the features themselves already contain enough graph information to obviate or substantially reduce the need for the graph. To illustrate this point, we perform a feature study on these datasets and show how the features are responsible for closing the gap between MLP and graph-method performance. Further, in service of introducing better empirical measures of progress for graph neural networks, we present a challenging parametric family of principled synthetic datasets that necessitate graph information for nontrivial performance. Lastly, we section out a subset of real-world datasets that are not trivially solved by an MLP and hence serve as reasonable benchmarks for graph neural networks.
- Abstract(参考訳): グラフ機械学習は、グラフコンテキストにおけるディープラーニングの導入以来、人気が高まってきた。
大規模産業環境ではグラフデータが多用されているため、これは驚きではない。
すべてのグラフ学習タスクで暗黙的に仮定されるのは、グラフ構造とノードの特徴の分離である。
そのため、ベンチマークのパフォーマンスはグラフ学習の改善を正確に反映している。
本稿では、ノードの特徴が多くの一般的なグラフベンチマークで十分である場合が多いことを示し、この重要な仮定を破ることによって、この正統性に挑戦する。
最も一般的に使用されているグラフ学習データセットの7つについて、よく調整された機能のみのMLPベースラインと比較した場合、5つのデータセットでグラフ構造を使用することによるメリットはほとんど得られない。
これらのデータセットはグラフ学習の恩恵をほとんど受けていないと仮定する。なぜなら、機能自体がグラフ情報を含んでいて、グラフの必要性を回避または大幅に低減できるからだ。
この点を説明するために、これらのデータセットの特徴研究を行い、その特徴がMDPとグラフメソッドのパフォーマンスのギャップを埋める原因であることを示す。
さらに,グラフニューラルネットワークの進歩度を実証的に向上する上で,グラフ情報を非自明な性能に必要とする,原則付き合成データセットのパラメトリックなファミリを提示する。
最後に、MLPによって自明に解決されず、グラフニューラルネットワークの妥当なベンチマークとして機能する実世界のデータセットのサブセットを分割する。
関連論文リスト
- The Graph Lottery Ticket Hypothesis: Finding Sparse, Informative Graph
Structure [18.00833762891405]
Graph Lottery Ticket (GLT)仮説: グラフごとに非常に疎いバックボーンが存在する。
本研究は,グラフ学習アルゴリズムの性能に直接影響を及ぼす関心の指標を8つ研究する。
任意のグラフでこれらのGLTを見つけるための単純で効率的なアルゴリズムを提案する。
論文 参考訳(メタデータ) (2023-12-08T00:24:44Z) - Structure-free Graph Condensation: From Large-scale Graphs to Condensed
Graph-free Data [91.27527985415007]
既存のグラフ凝縮法は、凝縮グラフ内のノードと構造の合同最適化に依存している。
我々は、大規模グラフを小さなグラフノード集合に蒸留する、SFGCと呼ばれる新しい構造自由グラフ凝縮パラダイムを提唱する。
論文 参考訳(メタデータ) (2023-06-05T07:53:52Z) - There is more to graphs than meets the eye: Learning universal features with self-supervision [2.882036130110936]
本稿では,複数のグラフに一般化可能な自己スーパービジョンによる特徴学習の課題について検討する。
提案手法では,(1)下流ノード分類の性能向上,(2)同じ家系の未確認グラフに再利用可能な学習機能,(3)より効率的なトレーニング,(4)コンパクトで一般化可能なモデルを提案する。
論文 参考訳(メタデータ) (2023-05-31T14:08:48Z) - State of the Art and Potentialities of Graph-level Learning [54.68482109186052]
グラフレベルの学習は、比較、回帰、分類など、多くのタスクに適用されている。
グラフの集合を学習する伝統的なアプローチは、サブストラクチャのような手作りの特徴に依存している。
ディープラーニングは、機能を自動的に抽出し、グラフを低次元表現に符号化することで、グラフレベルの学習をグラフの規模に適応させるのに役立っている。
論文 参考訳(メタデータ) (2023-01-14T09:15:49Z) - Synthetic Graph Generation to Benchmark Graph Learning [7.914804101579097]
グラフ学習アルゴリズムは多くのグラフ解析タスクで最先端のパフォーマンスを達成した。
1つの理由は、グラフ学習アルゴリズムのパフォーマンスをベンチマークするために実際に使用されるデータセットが極めて少ないためである。
本稿では,合成グラフの生成と,制御シナリオにおけるグラフ学習アルゴリズムの挙動について検討する。
論文 参考訳(メタデータ) (2022-04-04T10:48:32Z) - Node Feature Extraction by Self-Supervised Multi-scale Neighborhood
Prediction [123.20238648121445]
我々は、新しい自己教師型学習フレームワーク、グラフ情報支援ノード機能exTraction (GIANT)を提案する。
GIANT は eXtreme Multi-label Classification (XMC) 形式を利用しており、これはグラフ情報に基づいた言語モデルの微調整に不可欠である。
我々は,Open Graph Benchmarkデータセット上での標準GNNパイプラインよりもGIANTの方が優れた性能を示す。
論文 参考訳(メタデータ) (2021-10-29T19:55:12Z) - Edge but not Least: Cross-View Graph Pooling [76.71497833616024]
本稿では,重要なグラフ構造情報を活用するために,クロスビューグラフプーリング(Co-Pooling)手法を提案する。
クロスビュー相互作用、エッジビュープーリング、ノードビュープーリングにより、相互にシームレスに強化され、より情報的なグラフレベルの表現が学習される。
論文 参考訳(メタデータ) (2021-09-24T08:01:23Z) - Co-embedding of Nodes and Edges with Graph Neural Networks [13.020745622327894]
グラフ埋め込みは、高次元および非ユークリッド特徴空間でデータ構造を変換しエンコードする方法である。
CensNetは一般的なグラフ埋め込みフレームワークで、ノードとエッジの両方を潜在機能空間に埋め込む。
提案手法は,4つのグラフ学習課題における最先端のパフォーマンスを達成または一致させる。
論文 参考訳(メタデータ) (2020-10-25T22:39:31Z) - Multilevel Graph Matching Networks for Deep Graph Similarity Learning [79.3213351477689]
グラフ構造オブジェクト間のグラフ類似性を計算するためのマルチレベルグラフマッチングネットワーク(MGMN)フレームワークを提案する。
標準ベンチマークデータセットの欠如を補うため、グラフグラフ分類とグラフグラフ回帰タスクの両方のためのデータセットセットを作成し、収集した。
総合的な実験により、MGMNはグラフグラフ分類とグラフグラフ回帰タスクの両方において、最先端のベースラインモデルより一貫して優れていることが示された。
論文 参考訳(メタデータ) (2020-07-08T19:48:19Z) - Graph Pooling with Node Proximity for Hierarchical Representation
Learning [80.62181998314547]
本稿では,ノード近接を利用したグラフプーリング手法を提案し,そのマルチホップトポロジを用いたグラフデータの階層的表現学習を改善する。
その結果,提案したグラフプーリング戦略は,公開グラフ分類ベンチマークデータセットの集合において,最先端のパフォーマンスを達成できることが示唆された。
論文 参考訳(メタデータ) (2020-06-19T13:09:44Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。