論文の概要: Benchmarking Graph Neural Networks
- arxiv url: http://arxiv.org/abs/2003.00982v4
- Date: Wed, 11 May 2022 17:07:03 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-27 04:31:55.431464
- Title: Benchmarking Graph Neural Networks
- Title(参考訳): グラフニューラルネットワークのベンチマーク
- Authors: Vijay Prakash Dwivedi, Chaitanya K. Joshi, Anh Tuan Luu, Thomas
Laurent, Yoshua Bengio, Xavier Bresson
- Abstract要約: グラフニューラルネットワーク(GNN)は、グラフ上のデータから分析および学習するための標準ツールキットとなっている。
成功している分野が主流で信頼性を持つようになるためには、進捗を定量化するためにベンチマークを開発する必要がある。
GitHubリポジトリは1,800のスターと339のフォークに到達し、提案されているオープンソースフレームワークの有用性を実証している。
- 参考スコア(独自算出の注目度): 75.42159546060509
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In the last few years, graph neural networks (GNNs) have become the standard
toolkit for analyzing and learning from data on graphs. This emerging field has
witnessed an extensive growth of promising techniques that have been applied
with success to computer science, mathematics, biology, physics and chemistry.
But for any successful field to become mainstream and reliable, benchmarks must
be developed to quantify progress. This led us in March 2020 to release a
benchmark framework that i) comprises of a diverse collection of mathematical
and real-world graphs, ii) enables fair model comparison with the same
parameter budget to identify key architectures, iii) has an open-source,
easy-to-use and reproducible code infrastructure, and iv) is flexible for
researchers to experiment with new theoretical ideas. As of May 2022, the
GitHub repository has reached 1,800 stars and 339 forks, which demonstrates the
utility of the proposed open-source framework through the wide usage by the GNN
community. In this paper, we present an updated version of our benchmark with a
concise presentation of the aforementioned framework characteristics, an
additional medium-sized molecular dataset AQSOL, similar to the popular ZINC,
but with a real-world measured chemical target, and discuss how this framework
can be leveraged to explore new GNN designs and insights. As a proof of value
of our benchmark, we study the case of graph positional encoding (PE) in GNNs,
which was introduced with this benchmark and has since spurred interest of
exploring more powerful PE for Transformers and GNNs in a robust experimental
setting.
- Abstract(参考訳): ここ数年、グラフニューラルネットワーク(GNN)は、グラフ上のデータから分析および学習するための標準ツールキットとなっている。
この新興分野は、コンピュータ科学、数学、生物学、物理学、化学に応用された有望な技術の広範な成長を目撃している。
しかし、成功した分野が主流で信頼できるものになるためには、進捗を定量化するためにベンチマークを開発する必要がある。
この結果、2020年3月にベンチマークフレームワークをリリースしました。
一 数学的及び実世界のグラフの多様なコレクションからなる。
二 同一のパラメータ予算と公正なモデル比較を行い、重要なアーキテクチャを特定すること。
三 オープンソースの、使いやすく、再現しやすいコード基盤を有すること。
iv) 研究者が新しい理論のアイデアを試すには柔軟である。
2022年5月時点で、GitHubリポジトリは1,800のスターと339のフォークに到達しており、GNNコミュニティが広く使用しているオープンソースフレームワークの有用性を実証している。
本稿では,上記のフレームワークの特徴を簡潔に表現し,一般的な亜鉛と類似した中規模の分子データセット aqsol を追加し,実世界の化学ターゲットを用いて,このフレームワークを新たなgnn設計と洞察を探求するためにどのように活用できるかを論じた。
このベンチマークで導入されたグラフ位置エンコーディング(PE)のケースを検証した結果,トランスフォーマーやGNNのより強力なPEを,堅牢な実験環境で探索することへの関心が高まった。
関連論文リスト
- Application of Graph Neural Networks and graph descriptors for graph
classification [0.0]
グラフ表現学習のデファクト標準ディープラーニング技術として登場したグラフニューラルネットワーク(GNN)に注目した。
我々は、公正な評価実験プロトコルを設計し、適切なデータセットの収集を選択する。
我々は多くの結論に達し、新しいアルゴリズムの性能と品質に新たな光を当てた。
論文 参考訳(メタデータ) (2022-11-07T16:25:22Z) - Characterizing the Efficiency of Graph Neural Network Frameworks with a
Magnifying Glass [10.839902229218577]
グラフニューラルネットワーク(GNN)は、さまざまなグラフ関連学習タスクの成功により、大きな注目を集めている。
近年のGNNは,大規模グラフ上でのGNNのミニバッチトレーニングのために,異なるグラフサンプリング手法を用いて開発されている。
グリーンコンピューティングの観点から、フレームワークがどの程度"エコフレンドリー"であるかは不明だ。
論文 参考訳(メタデータ) (2022-11-06T04:22:19Z) - A Comprehensive Study on Large-Scale Graph Training: Benchmarking and
Rethinking [124.21408098724551]
グラフニューラルネットワーク(GNN)の大規模グラフトレーニングは、非常に難しい問題である
本稿では,既存の問題に対処するため,EnGCNという新たなアンサンブルトレーニング手法を提案する。
提案手法は,大規模データセット上でのSOTA(State-of-the-art)の性能向上を実現している。
論文 参考訳(メタデータ) (2022-10-14T03:43:05Z) - NAS-Bench-Graph: Benchmarking Graph Neural Architecture Search [55.75621026447599]
NAS-Bench-Graphは、GraphNASの統一的、再現可能、効率的な評価をサポートする調整されたベンチマークである。
具体的には,26,206のユニークなグラフニューラルネットワーク(GNN)アーキテクチャを網羅した,統一的で表現力のあるコンパクトな検索空間を構築する。
提案したベンチマークに基づいて,GNNアーキテクチャの性能を検索テーブルから直接取得できるが,それ以上の計算は行わない。
論文 参考訳(メタデータ) (2022-06-18T10:17:15Z) - PaSca: a Graph Neural Architecture Search System under the Scalable
Paradigm [24.294196319217907]
グラフニューラルネットワーク(GNN)は、さまざまなグラフベースのタスクで最先端のパフォーマンスを実現している。
しかし、GNNはデータサイズやメッセージパッシングステップに適していない。
本稿では,スケーラブルなGNNの設計空間を体系的に構築し,探索するための原則的アプローチを提供するPasCaを提案する。
論文 参考訳(メタデータ) (2022-03-01T17:26:50Z) - GraphWorld: Fake Graphs Bring Real Insights for GNNs [4.856486822139849]
GraphWorldは、ユーザが何百万もの統計的に多様なデータセットで効率的に世界を生成することを可能にする。
数百万のベンチマークデータセットに対する数万のGNNモデルの性能特性について,GraphWorldの実験結果から考察した。
論文 参考訳(メタデータ) (2022-02-28T22:00:02Z) - Node Feature Extraction by Self-Supervised Multi-scale Neighborhood
Prediction [123.20238648121445]
我々は、新しい自己教師型学習フレームワーク、グラフ情報支援ノード機能exTraction (GIANT)を提案する。
GIANT は eXtreme Multi-label Classification (XMC) 形式を利用しており、これはグラフ情報に基づいた言語モデルの微調整に不可欠である。
我々は,Open Graph Benchmarkデータセット上での標準GNNパイプラインよりもGIANTの方が優れた性能を示す。
論文 参考訳(メタデータ) (2021-10-29T19:55:12Z) - Bag of Tricks for Training Deeper Graph Neural Networks: A Comprehensive
Benchmark Study [100.27567794045045]
ディープグラフニューラルネットワーク(GNN)のトレーニングは、非常に難しい。
我々は、深層GNNの「トリック」を評価するための最初の公正かつ再現可能なベンチマークを示す。
論文 参考訳(メタデータ) (2021-08-24T05:00:37Z) - Node Masking: Making Graph Neural Networks Generalize and Scale Better [71.51292866945471]
グラフニューラルネットワーク(GNN)は近年,多くの関心を集めている。
本稿では,芸術空間のGNNの状態によって実行される操作をよりよく可視化するために,いくつかの理論ツールを利用する。
私たちはNode Maskingというシンプルなコンセプトを導入しました。
論文 参考訳(メタデータ) (2020-01-17T06:26:40Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。