論文の概要: GraphNet: A Large-Scale Computational Graph Dataset for Tensor Compiler Research
- arxiv url: http://arxiv.org/abs/2510.24035v1
- Date: Tue, 28 Oct 2025 03:36:05 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-29 15:35:36.740171
- Title: GraphNet: A Large-Scale Computational Graph Dataset for Tensor Compiler Research
- Title(参考訳): GraphNet:テンソルコンパイラ研究のための大規模計算グラフデータセット
- Authors: Xinqi Li, Yiqun Liu, Shan Jiang, Enrong Zheng, Huaijin Zheng, Wenhao Dai, Haodong Deng, Dianhai Yu, Yanjun Ma,
- Abstract要約: GraphNetは、リッチメタデータを備えた2.7Kの現実世界のディープラーニング計算グラフのデータセットである。
我々は、デフォルトのテンソルコンパイラ、PaddlePaddle用のCINN、PyTorch用のTorchInductor、コンピュータビジョン(CV)と自然言語処理(NLP)のサンプルをベンチマークし、GraphNetの実用性を実証した。
- 参考スコア(独自算出の注目度): 8.344163643041753
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: We introduce GraphNet, a dataset of 2.7K real-world deep learning computational graphs with rich metadata, spanning six major task categories across multiple deep learning frameworks. To evaluate tensor compiler performance on these samples, we propose the benchmark metric Speedup Score S(t), which jointly considers runtime speedup and execution correctness under tunable tolerance levels, offering a reliable measure of general optimization capability. Furthermore, we extend S(t) to the Error-aware Speedup Score ES(t), which incorporates error information and helps compiler developers identify key performance bottlenecks. In this report, we benchmark the default tensor compilers, CINN for PaddlePaddle and TorchInductor for PyTorch, on computer vision (CV) and natural language processing (NLP) samples to demonstrate the practicality of GraphNet. The full construction pipeline with graph extraction and compiler evaluation tools is available at https://github.com/PaddlePaddle/GraphNet .
- Abstract(参考訳): GraphNetは2.7Kのリアルタイムディープラーニング計算グラフのデータセットで、豊富なメタデータを持ち、複数のディープラーニングフレームワークにまたがる6つの主要なタスクカテゴリにまたがる。
これらのサンプルに対してテンソルコンパイラの性能を評価するために,実行時の高速化と実行の正確さを調整可能な許容レベル下で共同で検討するベンチマーク指標Speedup Score S(t)を提案する。
さらに,S(t)をエラー情報を組み込んだError-aware Speedup Score ES(t)に拡張し,コンパイラ開発者が主要なパフォーマンスボトルネックを特定するのに役立つ。
本稿では、デフォルトのテンソルコンパイラであるPaddlePaddleのCINNとPyTorchのTorchInductorをコンピュータビジョン(CV)と自然言語処理(NLP)のサンプルでベンチマークし、GraphNetの実用性を実証する。
グラフ抽出とコンパイラ評価ツールを備えた完全な構築パイプラインはhttps://github.com/PaddlePaddle/GraphNet.orgで公開されている。
関連論文リスト
- Slicing Input Features to Accelerate Deep Learning: A Case Study with Graph Neural Networks [0.24578723416255746]
本稿では,機能スライスされた大規模グラフ学習手法であるSliceGCNを紹介する。
これは、ミニバッチトレーニングに典型的な精度損失を回避し、GPU間通信を減らすことを目的としている。
6つのノード分類データセットで実験を行い、興味深い分析結果を得た。
論文 参考訳(メタデータ) (2024-08-21T10:18:41Z) - TpuGraphs: A Performance Prediction Dataset on Large Tensor
Computational Graphs [24.790481918123103]
本稿では,フルテンソルプログラムの性能予測データセットであるTpuGraphsを紹介する。
データセットの各グラフは、機械学習のワークロードの主計算を表します。
TpuGraphsは、最大のグラフプロパティ予測データセットよりも25倍のグラフを提供する。
論文 参考訳(メタデータ) (2023-08-25T17:04:35Z) - INR-Arch: A Dataflow Architecture and Compiler for Arbitrary-Order
Gradient Computations in Implicit Neural Representation Processing [66.00729477511219]
計算グラフとして表される関数を考えると、従来のアーキテクチャはn階勾配を効率的に計算する上で困難に直面している。
InR-Archは,n階勾配の計算グラフをハードウェア最適化データフローアーキテクチャに変換するフレームワークである。
1.8-4.8x と 1.5-3.6x の高速化を CPU と GPU のベースラインと比較した結果を示す。
論文 参考訳(メタデータ) (2023-08-11T04:24:39Z) - NAS-Bench-Graph: Benchmarking Graph Neural Architecture Search [55.75621026447599]
NAS-Bench-Graphは、GraphNASの統一的、再現可能、効率的な評価をサポートする調整されたベンチマークである。
具体的には,26,206のユニークなグラフニューラルネットワーク(GNN)アーキテクチャを網羅した,統一的で表現力のあるコンパクトな検索空間を構築する。
提案したベンチマークに基づいて,GNNアーキテクチャの性能を検索テーブルから直接取得できるが,それ以上の計算は行わない。
論文 参考訳(メタデータ) (2022-06-18T10:17:15Z) - Node Feature Extraction by Self-Supervised Multi-scale Neighborhood
Prediction [123.20238648121445]
我々は、新しい自己教師型学習フレームワーク、グラフ情報支援ノード機能exTraction (GIANT)を提案する。
GIANT は eXtreme Multi-label Classification (XMC) 形式を利用しており、これはグラフ情報に基づいた言語モデルの微調整に不可欠である。
我々は,Open Graph Benchmarkデータセット上での標準GNNパイプラインよりもGIANTの方が優れた性能を示す。
論文 参考訳(メタデータ) (2021-10-29T19:55:12Z) - GNNAutoScale: Scalable and Expressive Graph Neural Networks via
Historical Embeddings [51.82434518719011]
GNNAutoScale(GAS)は、任意のメッセージパスGNNを大規模グラフにスケールするためのフレームワークである。
ガスは、前回のトレーニングの繰り返しから過去の埋め込みを利用して計算グラフのサブツリー全体を掘り起こします。
ガスは大規模グラフ上で最先端のパフォーマンスに達する。
論文 参考訳(メタデータ) (2021-06-10T09:26:56Z) - Efficient Graph Deep Learning in TensorFlow with tf_geometric [53.237754811019464]
グラフ深層学習のための効率的でフレンドリなライブラリであるtf_geometricを導入する。
tf_geometricは、人気のあるGNNの実装と同様に、グラフニューラルネットワーク(GNN)を構築するためのカーネルライブラリを提供する。
カーネルライブラリは、グラフデータ構造、グラフマップ-リデュースフレームワーク、グラフミニバッチ戦略など、効率的なGNNを構築するためのインフラストラクチャで構成されている。
論文 参考訳(メタデータ) (2021-01-27T17:16:36Z) - Scalable Graph Neural Networks for Heterogeneous Graphs [12.44278942365518]
グラフニューラルネットワーク(GNN)は、グラフ構造化データを学習するためのパラメトリックモデルの一般的なクラスである。
最近の研究は、GNNが主に機能をスムースにするためにグラフを使用しており、ベンチマークタスクで競合する結果を示していると主張している。
本研究では、これらの結果が異種グラフに拡張可能かどうかを問うとともに、異なるエンティティ間の複数のタイプの関係を符号化する。
論文 参考訳(メタデータ) (2020-11-19T06:03:35Z) - Scaling Graph Neural Networks with Approximate PageRank [64.92311737049054]
GNNにおける情報拡散の効率的な近似を利用したPPRGoモデルを提案する。
高速であることに加えて、PPRGoは本質的にスケーラブルであり、業界設定で見られるような大規模なデータセットに対して、自明に並列化することができる。
このグラフのすべてのノードに対するPPRGoのトレーニングとラベルの予測には1台のマシンで2分未満で、同じグラフ上の他のベースラインをはるかに上回ります。
論文 参考訳(メタデータ) (2020-07-03T09:30:07Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。