論文の概要: ProGNNosis: A Data-driven Model to Predict GNN Computation Time Using
Graph Metrics
- arxiv url: http://arxiv.org/abs/2206.08258v1
- Date: Thu, 16 Jun 2022 15:58:14 GMT
- ステータス: 処理完了
- システム内更新日: 2022-06-17 20:46:08.189196
- Title: ProGNNosis: A Data-driven Model to Predict GNN Computation Time Using
Graph Metrics
- Title(参考訳): ProGNNosis:グラフメトリックを使用してGNN計算時間を予測するデータ駆動モデル
- Authors: Axel Wassington and Sergi Abadal
- Abstract要約: 本稿では,任意の特性のグラフ上で動作する所定のGNNモデルのGNNトレーニング時間を予測可能なデータ駆動モデルであるProGNNosisを提案する。
その結果,グラフ表現をランダムに選択した場合,ProGNNosisは平均1.22倍の高速化を実現することができた。
- 参考スコア(独自算出の注目度): 1.6942548626426182
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Graph Neural Networks (GNN) show great promise in problems dealing with
graph-structured data. One of the unique points of GNNs is their flexibility to
adapt to multiple problems, which not only leads to wide applicability, but
also poses important challenges when finding the best model or acceleration
technique for a particular problem. An example of such challenges resides in
the fact that the accuracy or effectiveness of a GNN model or acceleration
technique generally depends on the structure of the underlying graph. In this
paper, in an attempt to address the problem of graph-dependent acceleration, we
propose ProGNNosis, a data-driven model that can predict the GNN training time
of a given GNN model running over a graph of arbitrary characteristics by
inspecting the input graph metrics. Such prediction is made based on a
regression that was previously trained offline using a diverse synthetic graph
dataset. In practice, our method allows making informed decisions on which
design to use for a specific problem. In the paper, the methodology to build
ProGNNosis is defined and applied for a specific use case, where it helps to
decide which graph representation is better. Our results show that ProGNNosis
helps achieve an average speedup of 1.22X over randomly selecting a graph
representation in multiple widely used GNN models such as GCN, GIN, GAT, or
GraphSAGE.
- Abstract(参考訳): グラフニューラルネットワーク(gnn)は、グラフ構造化データを扱う場合に大きな期待を示す。
GNNのユニークなポイントの1つは、複数の問題に適応する柔軟性である。これは幅広い適用性をもたらすだけでなく、特定の問題に対して最適なモデルやアクセラレーション技術を見つける際にも重要な課題を引き起こす。
そのような課題の例として、gnnモデルや加速技術の正確性や有効性が一般に基礎となるグラフの構造に依存するという事実がある。
本稿では,グラフ依存加速度の問題に対処する試みとして,入力グラフメトリクスを検査することにより,任意の特性のグラフ上で動作するGNNモデルのGNNトレーニング時間を予測できるデータ駆動モデルProGNNosisを提案する。
このような予測は、さまざまな合成グラフデータセットを使用してオフラインでトレーニングされた回帰に基づいて行われる。
実際、この手法は特定の問題に対してどの設計を使うべきかをインフォームドで決定できる。
本稿では,ProGNNosisを構築するための方法論を定義し,特定のユースケースに適用し,どのグラフ表現がよいかを決定するのに役立つ。
本稿では,GCN,GIN,GAT,GraphSAGEなどのGNNモデルにおいて,グラフ表現をランダムに選択することで,ProGNNosisが平均1.22倍の高速化を実現することを示す。
関連論文リスト
- Faster Inference Time for GNNs using coarsening [1.323700980948722]
粗い手法はグラフを小さくするために使われ、計算が高速化される。
これまでの調査では、推論中にコストに対処できなかった。
本稿では, サブグラフベース手法によるGNNのスケーラビリティ向上のための新しい手法を提案する。
論文 参考訳(メタデータ) (2024-10-19T06:27:24Z) - Spectral Greedy Coresets for Graph Neural Networks [61.24300262316091]
ノード分類タスクにおける大規模グラフの利用は、グラフニューラルネットワーク(GNN)の現実的な応用を妨げる
本稿では,GNNのグラフコアセットについて検討し,スペクトル埋め込みに基づくエゴグラフの選択により相互依存の問題を回避する。
我々のスペクトルグレディグラフコアセット(SGGC)は、数百万のノードを持つグラフにスケールし、モデル事前学習の必要性を排除し、低ホモフィリーグラフに適用する。
論文 参考訳(メタデータ) (2024-05-27T17:52:12Z) - Learning to Reweight for Graph Neural Network [63.978102332612906]
グラフニューラルネットワーク(GNN)は、グラフタスクに対して有望な結果を示す。
既存のGNNの一般化能力は、テストとトレーニンググラフデータの間に分散シフトが存在する場合に低下する。
本稿では,分布外一般化能力を大幅に向上させる非線形グラフデコリレーション法を提案する。
論文 参考訳(メタデータ) (2023-12-19T12:25:10Z) - Robust Graph Neural Network based on Graph Denoising [10.564653734218755]
グラフニューラルネットワーク(GNN)は、非ユークリッドデータセットを扱う学習問題に対して、悪名高い代替手段として登場した。
本研究は,観測トポロジにおける摂動の存在を明示的に考慮した,GNNの堅牢な実装を提案する。
論文 参考訳(メタデータ) (2023-12-11T17:43:57Z) - Training Graph Neural Networks on Growing Stochastic Graphs [114.75710379125412]
グラフニューラルネットワーク(GNN)は、ネットワーク化されたデータの意味のあるパターンを活用するために、グラフ畳み込みに依存している。
我々は,成長するグラフ列の極限オブジェクトであるグラフオンを利用して,非常に大きなグラフ上のGNNを学習することを提案する。
論文 参考訳(メタデータ) (2022-10-27T16:00:45Z) - Graph Anomaly Detection with Graph Neural Networks: Current Status and
Challenges [9.076649460696402]
グラフニューラルネットワーク(GNN)は広く研究され、困難な機械学習タスクを成功させた。
本調査は,GNNに基づくグラフ異常検出手法の総合的なレビューとしては初めてである。
論文 参考訳(メタデータ) (2022-09-29T16:47:57Z) - MentorGNN: Deriving Curriculum for Pre-Training GNNs [61.97574489259085]
本稿では,グラフ間のGNNの事前学習プロセスの監視を目的とした,MentorGNNというエンドツーエンドモデルを提案する。
我々は、事前学習したGNNの一般化誤差に自然かつ解釈可能な上限を導出することにより、関係データ(グラフ)に対するドメイン適応の問題に新たな光を当てた。
論文 参考訳(メタデータ) (2022-08-21T15:12:08Z) - SizeShiftReg: a Regularization Method for Improving Size-Generalization
in Graph Neural Networks [5.008597638379227]
グラフニューラルネットワーク(GNN)は,グラフ分類のデファクトモデルとなっている。
テストデータへのアクセスを必要とせずに,任意のGNNに適用可能な正規化戦略を提案する。
我々の正規化は、粗い手法を用いてトレーニンググラフのサイズの変化をシミュレートする考え方に基づいている。
論文 参考訳(メタデータ) (2022-07-16T09:50:45Z) - Adaptive Kernel Graph Neural Network [21.863238974404474]
グラフニューラルネットワーク(GNN)は,グラフ構造化データの表現学習において大きな成功を収めている。
本稿では,AKGNN(Adaptive Kernel Graph Neural Network)という新しいフレームワークを提案する。
AKGNNは、最初の試みで最適なグラフカーネルに統一的に適応することを学ぶ。
評価されたベンチマークデータセットで実験を行い、提案したAKGNNの優れた性能を示す有望な結果を得た。
論文 参考訳(メタデータ) (2021-12-08T20:23:58Z) - GPT-GNN: Generative Pre-Training of Graph Neural Networks [93.35945182085948]
グラフニューラルネットワーク(GNN)は、グラフ構造化データのモデリングにおいて強力であることが示されている。
生成事前学習によりGNNを初期化するためのGPT-GNNフレームワークを提案する。
GPT-GNNは、様々な下流タスクにおいて、事前トレーニングを最大9.1%行うことなく、最先端のGNNモデルを大幅に上回ることを示す。
論文 参考訳(メタデータ) (2020-06-27T20:12:33Z) - XGNN: Towards Model-Level Explanations of Graph Neural Networks [113.51160387804484]
グラフニューラルネットワーク(GNN)は、隣の情報を集約して組み合わせることでノードの特徴を学習する。
GNNはブラックボックスとして扱われ、人間の知的な説明が欠けている。
我々はモデルレベルでGNNを解釈する新しい手法 XGNN を提案する。
論文 参考訳(メタデータ) (2020-06-03T23:52:43Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。