論文の概要: Efficient Graph Encoder Embedding for Large Sparse Graphs in Python
- arxiv url: http://arxiv.org/abs/2406.03726v1
- Date: Thu, 6 Jun 2024 03:49:34 GMT
- ステータス: 処理完了
- システム内更新日: 2024-06-07 18:25:49.942366
- Title: Efficient Graph Encoder Embedding for Large Sparse Graphs in Python
- Title(参考訳): Pythonにおける大きなスパースグラフのための効率的なグラフエンコーダ
- Authors: Xihan Qin, Cencheng Shen,
- Abstract要約: グラフ埋め込み(GEE)は最も高速なグラフ埋め込み技術として示されており、様々なネットワークデータアプリケーションに適している。
GEEの改良版であるスパースGEEを提案し、スパース行列におけるゼロエントリの計算と保存を最適化し、ランニング時間をさらに向上する。
実験により, スパース版は, 大規模なスパースグラフをPythonで実装したオリジナルのGEEと比較して, 大幅な高速化を実現しており, スパースGEEは標準ラップトップで数分で数百万のエッジを処理することができることがわかった。
- 参考スコア(独自算出の注目度): 3.5374094795720854
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Graph is a ubiquitous representation of data in various research fields, and graph embedding is a prevalent machine learning technique for capturing key features and generating fixed-sized attributes. However, most state-of-the-art graph embedding methods are computationally and spatially expensive. Recently, the Graph Encoder Embedding (GEE) has been shown as the fastest graph embedding technique and is suitable for a variety of network data applications. As real-world data often involves large and sparse graphs, the huge sparsity usually results in redundant computations and storage. To address this issue, we propose an improved version of GEE, sparse GEE, which optimizes the calculation and storage of zero entries in sparse matrices to enhance the running time further. Our experiments demonstrate that the sparse version achieves significant speedup compared to the original GEE with Python implementation for large sparse graphs, and sparse GEE is capable of processing millions of edges within minutes on a standard laptop.
- Abstract(参考訳): グラフは様々な研究分野におけるデータのユビキタス表現であり、グラフ埋め込みは主要な特徴をキャプチャし、固定サイズの属性を生成するための一般的な機械学習技術である。
しかし、ほとんどの最先端グラフ埋め込み手法は計算的かつ空間的に高価である。
近年,Graph Encoder Embedding (GEE) が最も高速なグラフ埋め込み技術として紹介され,様々なネットワークデータアプリケーションに適している。
実世界のデータは多くの場合、大きくスパースなグラフを伴っているため、巨大な空間は、通常冗長な計算とストレージをもたらす。
この問題に対処するため、スパース行列におけるゼロエントリの計算と保存を最適化し、ランニング時間をさらに向上する、スパースGEEの改良版(スパースGEE)を提案する。
実験により, スパース版は, 大規模なスパースグラフをPythonで実装したオリジナルのGEEと比較して, 大幅な高速化を実現しており, スパースGEEは標準ラップトップで数分で数百万のエッジを処理することができることがわかった。
関連論文リスト
- Learning on Large Graphs using Intersecting Communities [13.053266613831447]
MPNNは、各ノードの隣人からのメッセージを集約することで、入力グラフ内の各ノードの表現を反復的に更新する。
MPNNは、あまりスパースではないため、すぐに大きなグラフの禁止になるかもしれない。
本稿では,入力グラフを交差するコミュニティグラフ (ICG) として近似することを提案する。
論文 参考訳(メタデータ) (2024-05-31T09:26:26Z) - Deep Manifold Graph Auto-Encoder for Attributed Graph Embedding [51.75091298017941]
本稿では,属性付きグラフデータに対する新しいDeep Manifold (Variational) Graph Auto-Encoder (DMVGAE/DMGAE)を提案する。
提案手法は,最先端のベースラインアルゴリズムを,一般的なデータセット間でのダウンストリームタスクの差を大きく越える。
論文 参考訳(メタデータ) (2024-01-12T17:57:07Z) - Distributed Graph Embedding with Information-Oriented Random Walks [16.290803469068145]
グラフ埋め込みはグラフノードを低次元ベクトルにマッピングし、機械学習タスクで広く採用されている。
数十億のエッジグラフを埋め込むためにスケール可能な,汎用的で分散された情報中心のランダムウォークベースのグラフ埋め込みフレームワークであるDistGERを提案する。
D DistGERは2.33x-129x加速、機械間通信の45%削減、下流タスクの10%改善を示す。
論文 参考訳(メタデータ) (2023-03-28T03:11:21Z) - Scaling R-GCN Training with Graph Summarization [71.06855946732296]
リレーショナルグラフ畳み込みネットワーク(R-GCN)のトレーニングは、グラフのサイズに合わない。
本研究では,グラフの要約手法を用いてグラフを圧縮する実験を行った。
AIFB, MUTAG, AMデータセットについて妥当な結果を得た。
論文 参考訳(メタデータ) (2022-03-05T00:28:43Z) - Neighbor2Seq: Deep Learning on Massive Graphs by Transforming Neighbors
to Sequences [55.329402218608365]
本研究では,各ノードの階層的近傍をシーケンスに変換するためにNeighbor2Seqを提案する。
1100万以上のノードと160億のエッジを持つ大規模グラフ上で,本手法の評価を行った。
その結果,提案手法は大規模グラフに対してスケーラブルであり,大規模グラフと中規模グラフにまたがる優れた性能を実現する。
論文 参考訳(メタデータ) (2022-02-07T16:38:36Z) - Boosting Graph Embedding on a Single GPU [3.093890460224435]
大規模グラフを最小限のハードウェア制約で埋め込むためのGPUベースのツールであるGOSHを提案する。
更新の影響を高め、埋め込み作業を最小限にするため、新しいグラフ粗化アルゴリズムを採用している。
また、任意の任意の大きなグラフを単一のGPUで埋め込むことができる分解スキーマも組み込まれている。
論文 参考訳(メタデータ) (2021-10-19T15:25:04Z) - Fast Attributed Graph Embedding via Density of States [17.360163137925994]
分散DOSベースのグラフ埋め込みのためのA-DOGEを提案する。
A-DOGEは望ましい特性の長いデシラタを満たすように設計されている。
グラフの固有スペクトル全体に基づいて、A-DOGEは複数の「局所」スケールで構造特性と属性特性をキャプチャすることができる。
論文 参考訳(メタデータ) (2021-10-11T12:44:58Z) - GNNAutoScale: Scalable and Expressive Graph Neural Networks via
Historical Embeddings [51.82434518719011]
GNNAutoScale(GAS)は、任意のメッセージパスGNNを大規模グラフにスケールするためのフレームワークである。
ガスは、前回のトレーニングの繰り返しから過去の埋め込みを利用して計算グラフのサブツリー全体を掘り起こします。
ガスは大規模グラフ上で最先端のパフォーマンスに達する。
論文 参考訳(メタデータ) (2021-06-10T09:26:56Z) - Pseudoinverse Graph Convolutional Networks: Fast Filters Tailored for
Large Eigengaps of Dense Graphs and Hypergraphs [0.0]
Graph Convolutional Networks (GCNs) は、グラフベースのデータセットで半教師付き分類を行うツールとして成功している。
本稿では,三部フィルタ空間が高密度グラフを対象とする新しいGCN変種を提案する。
論文 参考訳(メタデータ) (2020-08-03T08:48:41Z) - Scaling Graph Neural Networks with Approximate PageRank [64.92311737049054]
GNNにおける情報拡散の効率的な近似を利用したPPRGoモデルを提案する。
高速であることに加えて、PPRGoは本質的にスケーラブルであり、業界設定で見られるような大規模なデータセットに対して、自明に並列化することができる。
このグラフのすべてのノードに対するPPRGoのトレーニングとラベルの予測には1台のマシンで2分未満で、同じグラフ上の他のベースラインをはるかに上回ります。
論文 参考訳(メタデータ) (2020-07-03T09:30:07Z) - Fast Graph Attention Networks Using Effective Resistance Based Graph
Sparsification [70.50751397870972]
FastGATは、スペクトルスペーシフィケーションを用いて、注目に基づくGNNを軽量にし、入力グラフの最適プルーニングを生成する手法である。
我々は,ノード分類タスクのための大規模実世界のグラフデータセット上でFastGATを実験的に評価した。
論文 参考訳(メタデータ) (2020-06-15T22:07:54Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。