論文の概要: Less Can Be More: Unsupervised Graph Pruning for Large-scale Dynamic
Graphs
- arxiv url: http://arxiv.org/abs/2305.10673v1
- Date: Thu, 18 May 2023 03:23:53 GMT
- ステータス: 処理完了
- システム内更新日: 2023-05-19 17:11:05.756527
- Title: Less Can Be More: Unsupervised Graph Pruning for Large-scale Dynamic
Graphs
- Title(参考訳): lessはもっとあり得る:大規模動的グラフのための教師なしグラフプラニング
- Authors: Jintang Li, Sheng Tian, Ruofan Wu, Liang Zhu, Welong Zhao, Changhua
Meng, Liang Chen, Zibin Zheng, Hongzhi Yin
- Abstract要約: 動的グラフ上での教師なしグラフプルーニングの問題を提案し,検討する。
提案するSTEPフレームワークは,入力動的グラフから潜在的に冗長なエッジを取り除くことを学習する。
実世界の3つのデータセットに対する我々の結果は、GNNの有効性、堅牢性、効率性を改善する利点を実証している。
- 参考スコア(独自算出の注目度): 42.864057751606616
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The prevalence of large-scale graphs poses great challenges in time and
storage for training and deploying graph neural networks (GNNs). Several recent
works have explored solutions for pruning the large original graph into a small
and highly-informative one, such that training and inference on the pruned and
large graphs have comparable performance. Although empirically effective,
current researches focus on static or non-temporal graphs, which are not
directly applicable to dynamic scenarios. In addition, they require labels as
ground truth to learn the informative structure, limiting their applicability
to new problem domains where labels are hard to obtain. To solve the dilemma,
we propose and study the problem of unsupervised graph pruning on dynamic
graphs. We approach the problem by our proposed STEP, a self-supervised
temporal pruning framework that learns to remove potentially redundant edges
from input dynamic graphs. From a technical and industrial viewpoint, our
method overcomes the trade-offs between the performance and the time & memory
overheads. Our results on three real-world datasets demonstrate the advantages
on improving the efficacy, robustness, and efficiency of GNNs on dynamic node
classification tasks. Most notably, STEP is able to prune more than 50% of
edges on a million-scale industrial graph Alipay (7M nodes, 21M edges) while
approximating up to 98% of the original performance. Code is available at
https://github.com/EdisonLeeeee/STEP.
- Abstract(参考訳): 大規模グラフの普及は、グラフニューラルネットワーク(gnn)のトレーニングとデプロイのための時間とストレージにおいて大きな課題となる。
いくつかの最近の研究は、大きな原グラフを小さく、高インフォーマルなグラフにプルーニングするソリューションを探しており、プルーニングされたグラフと大きなグラフのトレーニングと推論は同等のパフォーマンスを持つ。
経験的効果はあるものの、現在の研究は静的グラフや非時間グラフに重点を置いている。
さらに、情報構造を学ぶためには、ラベルを基礎的真理として求め、ラベルが入手困難な新しい問題領域に適用性を制限する。
このジレンマを解決するために,動的グラフ上で教師なしグラフプルーニングの問題を提案し,検討する。
我々は,入力動的グラフから潜在的に冗長なエッジを取り除くことを学習する自己教師付き時間的プルーニングフレームワークSTEPにより,この問題にアプローチする。
技術的・産業的な観点から,本手法は性能と時間・メモリオーバーヘッドのトレードオフを克服する。
実世界の3つのデータセットを用いて、動的ノード分類タスクにおけるGNNの有効性、堅牢性、効率性を改善する利点を実証した。
最も注目すべきは、stepは、100万の産業用グラフalipay(7mノード、21mエッジ)のエッジの50%以上をプルーピングできると同時に、元のパフォーマンスの98%近くを占めることだ。
コードはhttps://github.com/EdisonLeeeee/STEPで入手できる。
関連論文リスト
- Faster Inference Time for GNNs using coarsening [1.323700980948722]
粗い手法はグラフを小さくするために使われ、計算が高速化される。
これまでの調査では、推論中にコストに対処できなかった。
本稿では, サブグラフベース手法によるGNNのスケーラビリティ向上のための新しい手法を提案する。
論文 参考訳(メタデータ) (2024-10-19T06:27:24Z) - Gradient Transformation: Towards Efficient and Model-Agnostic Unlearning for Dynamic Graph Neural Networks [66.70786325911124]
グラフアンラーニングは、ユーザのプライバシ保護と、望ましくないデータによるネガティブな影響軽減に不可欠なツールとして登場した。
DGNNの普及に伴い、動的グラフアンラーニングの実装を検討することが不可欠となる。
DGNNアンラーニングを実装するために,効率的,効率的,モデルに依存しない,事後処理手法を提案する。
論文 参考訳(メタデータ) (2024-05-23T10:26:18Z) - Two Heads Are Better Than One: Boosting Graph Sparse Training via
Semantic and Topological Awareness [80.87683145376305]
グラフニューラルネットワーク(GNN)は、様々なグラフ学習タスクに優れるが、大規模グラフに適用した場合、計算上の課題に直面している。
データレベルで空間を動的に操作するグラフスパーストレーニング(GST)を提案する。
GSTは、最大位相整合性と性能劣化のないスパースグラフを生成する。
論文 参考訳(メタデータ) (2024-02-02T09:10:35Z) - A Topology-aware Graph Coarsening Framework for Continual Graph Learning [8.136809136959302]
グラフに関する継続的な学習は、グラフデータがストリーミング形式で到着するグラフニューラルネットワーク(GNN)のトレーニングに対処する。
Experience Replayのような従来の継続的学習戦略は、ストリーミンググラフに適応することができる。
本稿では, TA$mathbbCO$, a (t)opology-(a)ware graph (co)arsening and (co)ntinual learning frameworkを提案する。
論文 参考訳(メタデータ) (2024-01-05T22:22:13Z) - Instant Graph Neural Networks for Dynamic Graphs [18.916632816065935]
Instant Graph Neural Network (InstantGNN) を提案する。
提案手法は,時間を要する反復計算を回避し,表現の即時更新と即時予測を可能にする。
本モデルでは,既存手法よりも高精度かつ高次精度で最先端の精度を実現する。
論文 参考訳(メタデータ) (2022-06-03T03:27:42Z) - DOTIN: Dropping Task-Irrelevant Nodes for GNNs [119.17997089267124]
最近のグラフ学習アプローチでは、学習のためのグラフのサイズを減らすためのプール戦略が導入されている。
我々はDOTIN(underlineDrunderlineopping underlineTask-underlineIrrelevant underlineNodes)と呼ばれる新しいアプローチを設計し、グラフのサイズを減らす。
本手法は,グラフ分類やグラフ編集距離を含むグラフレベルのタスクにおいて,GATを約50%高速化する。
論文 参考訳(メタデータ) (2022-04-28T12:00:39Z) - Neural Graph Matching for Pre-training Graph Neural Networks [72.32801428070749]
グラフニューラルネットワーク(GNN)は、構造データのモデリングにおいて強力な能力を示している。
GMPTと呼ばれる新しいグラフマッチングベースのGNN事前学習フレームワークを提案する。
提案手法は,完全自己指導型プレトレーニングと粗粒型プレトレーニングに適用できる。
論文 参考訳(メタデータ) (2022-03-03T09:53:53Z) - Efficient Dynamic Graph Representation Learning at Scale [66.62859857734104]
本稿では,学習損失による時間依存性を選択的に表現し,計算の並列性を改善するための効率的な動的グラフ lEarning (EDGE) を提案する。
EDGEは、数百万のノードと数億の時間的イベントを持つ動的グラフにスケールでき、新しい最先端(SOTA)パフォーマンスを実現することができる。
論文 参考訳(メタデータ) (2021-12-14T22:24:53Z) - LSP : Acceleration and Regularization of Graph Neural Networks via
Locality Sensitive Pruning of Graphs [2.4250821950628234]
グラフニューラルネットワーク(GNN)は、グラフ関連のタスクのための非常に成功したツールとして登場した。
大きなグラフは、性能を損なうことなく取り除くことができる多くの冗長なコンポーネントを含むことが多い。
そこで我々はLocality-Sensitive Hashingに基づくグラフプルーニングのためのLocality-Sensitive Pruning(LSP)という体系的手法を提案する。
論文 参考訳(メタデータ) (2021-11-10T14:12:28Z) - Graph Coarsening with Neural Networks [8.407217618651536]
本稿では、粗いアルゴリズムの品質を測定するためのフレームワークを提案し、目標に応じて、粗いグラフ上のLaplace演算子を慎重に選択する必要があることを示す。
粗いグラフに対する現在のエッジウェイト選択が準最適である可能性が示唆され、グラフニューラルネットワークを用いて重み付けマップをパラメータ化し、教師なし方法で粗い品質を改善するよう訓練する。
論文 参考訳(メタデータ) (2021-02-02T06:50:07Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。