論文の概要: Boosting Graph Embedding on a Single GPU
- arxiv url: http://arxiv.org/abs/2110.10049v1
- Date: Tue, 19 Oct 2021 15:25:04 GMT
- ステータス: 処理完了
- システム内更新日: 2021-10-20 15:08:27.245584
- Title: Boosting Graph Embedding on a Single GPU
- Title(参考訳): シングルGPUにおけるグラフ埋め込みの強化
- Authors: Amro Alabsi Aljundi, Taha Atahan Aky{\i}ld{\i}z, Kamer Kaya
- Abstract要約: 大規模グラフを最小限のハードウェア制約で埋め込むためのGPUベースのツールであるGOSHを提案する。
更新の影響を高め、埋め込み作業を最小限にするため、新しいグラフ粗化アルゴリズムを採用している。
また、任意の任意の大きなグラフを単一のGPUで埋め込むことができる分解スキーマも組み込まれている。
- 参考スコア(独自算出の注目度): 3.093890460224435
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Graphs are ubiquitous, and they can model unique characteristics and complex
relations of real-life systems. Although using machine learning (ML) on graphs
is promising, their raw representation is not suitable for ML algorithms. Graph
embedding represents each node of a graph as a d-dimensional vector which is
more suitable for ML tasks. However, the embedding process is expensive, and
CPU-based tools do not scale to real-world graphs. In this work, we present
GOSH, a GPU-based tool for embedding large-scale graphs with minimum hardware
constraints. GOSH employs a novel graph coarsening algorithm to enhance the
impact of updates and minimize the work for embedding. It also incorporates a
decomposition schema that enables any arbitrarily large graph to be embedded
with a single GPU. As a result, GOSH sets a new state-of-the-art in link
prediction both in accuracy and speed, and delivers high-quality embeddings for
node classification at a fraction of the time compared to the state-of-the-art.
For instance, it can embed a graph with over 65 million vertices and 1.8
billion edges in less than 30 minutes on a single GPU.
- Abstract(参考訳): グラフはユビキタスであり、実際のシステムのユニークな特性と複雑な関係をモデル化することができる。
グラフ上で機械学習(ML)を使用することは有望だが、生の表現はMLアルゴリズムには適していない。
グラフ埋め込みは、グラフの各ノードを、よりMLタスクに適したd次元ベクトルとして表現する。
しかし、組み込みプロセスは高価であり、CPUベースのツールは実際のグラフにスケールしない。
本稿では,大規模グラフを最小限のハードウェア制約で埋め込むGPUベースのツールGOSHを提案する。
GOSHは、更新の影響を高め、埋め込み作業を最小限にするため、新しいグラフ粗化アルゴリズムを採用している。
また、任意の任意の大きなグラフを単一のGPUで埋め込むことができる分解スキーマも組み込まれている。
その結果、GOSHは、精度と速度の両方において、新しい最先端のリンク予測を設定し、最先端と比較して、ノード分類のための高品質な埋め込みを提供する。
例えば、6500万の頂点と18億のエッジを持つグラフを1つのGPUに30分以内で埋め込むことができる。
関連論文リスト
- GraphStorm: all-in-one graph machine learning framework for industry applications [75.23076561638348]
GraphStormはスケーラブルなグラフ構築、グラフモデルのトレーニング、推論のためのエンドツーエンドソリューションである。
GraphStormのすべてのコンポーネントは数十億のノードを持つグラフ上で動作でき、コードを変更することなく、モデルのトレーニングと推論を異なるハードウェアにスケールすることができる。
GraphStormは、2023年5月にリリースされて以来、数十億以上の業界アプリケーションで使われ、デプロイされてきた。
論文 参考訳(メタデータ) (2024-06-10T04:56:16Z) - Learning on Large Graphs using Intersecting Communities [13.053266613831447]
MPNNは、各ノードの隣人からのメッセージを集約することで、入力グラフ内の各ノードの表現を反復的に更新する。
MPNNは、あまりスパースではないため、すぐに大きなグラフの禁止になるかもしれない。
本稿では,入力グラフを交差するコミュニティグラフ (ICG) として近似することを提案する。
論文 参考訳(メタデータ) (2024-05-31T09:26:26Z) - MGNet: Learning Correspondences via Multiple Graphs [78.0117352211091]
学習対応は、不均一な対応分布と低い不整合率で設定された初期対応から正しい対応を見つけることを目的としている。
最近の進歩は、通常、グラフニューラルネットワーク(GNN)を使用して単一のタイプのグラフを構築したり、グローバルなグラフに局所グラフをスタックしてタスクを完了させる。
本稿では,複数の補完グラフを効果的に組み合わせるためのMGNetを提案する。
論文 参考訳(メタデータ) (2024-01-10T07:58:44Z) - Distributed Graph Embedding with Information-Oriented Random Walks [16.290803469068145]
グラフ埋め込みはグラフノードを低次元ベクトルにマッピングし、機械学習タスクで広く採用されている。
数十億のエッジグラフを埋め込むためにスケール可能な,汎用的で分散された情報中心のランダムウォークベースのグラフ埋め込みフレームワークであるDistGERを提案する。
D DistGERは2.33x-129x加速、機械間通信の45%削減、下流タスクの10%改善を示す。
論文 参考訳(メタデータ) (2023-03-28T03:11:21Z) - DOTIN: Dropping Task-Irrelevant Nodes for GNNs [119.17997089267124]
最近のグラフ学習アプローチでは、学習のためのグラフのサイズを減らすためのプール戦略が導入されている。
我々はDOTIN(underlineDrunderlineopping underlineTask-underlineIrrelevant underlineNodes)と呼ばれる新しいアプローチを設計し、グラフのサイズを減らす。
本手法は,グラフ分類やグラフ編集距離を含むグラフレベルのタスクにおいて,GATを約50%高速化する。
論文 参考訳(メタデータ) (2022-04-28T12:00:39Z) - Scaling R-GCN Training with Graph Summarization [71.06855946732296]
リレーショナルグラフ畳み込みネットワーク(R-GCN)のトレーニングは、グラフのサイズに合わない。
本研究では,グラフの要約手法を用いてグラフを圧縮する実験を行った。
AIFB, MUTAG, AMデータセットについて妥当な結果を得た。
論文 参考訳(メタデータ) (2022-03-05T00:28:43Z) - Dirichlet Graph Variational Autoencoder [65.94744123832338]
本稿では,グラフクラスタメンバシップを潜在因子とするDGVAE(Dirichlet Graph Variational Autoencoder)を提案する。
バランスグラフカットにおける低パス特性により、入力グラフをクラスタメンバシップにエンコードする、Heattsと呼ばれるGNNの新しい変種を提案する。
論文 参考訳(メタデータ) (2020-10-09T07:35:26Z) - Force2Vec: Parallel force-directed graph embedding [3.577310844634503]
グラフ埋め込みアルゴリズムはグラフを低次元空間に埋め込み、グラフ固有の性質を保存する。
我々は、機械学習(ML)と可視化タスクの両方に優れるグラフ埋め込み設定において、フォース指向グラフレイアウトモデルを使用するForce2Vecを開発した。
論文 参考訳(メタデータ) (2020-09-17T03:53:25Z) - FeatGraph: A Flexible and Efficient Backend for Graph Neural Network
Systems [23.258185277825888]
FeatGraphは多様なGNNモデルを表現するためのフレキシブルなプログラミングインターフェースを提供する。
FeatGraphは、エンドツーエンドのGNNトレーニングと推論をCPUで最大32倍、GPUで最大7倍高速化する。
論文 参考訳(メタデータ) (2020-08-26T03:17:05Z) - Scaling Graph Neural Networks with Approximate PageRank [64.92311737049054]
GNNにおける情報拡散の効率的な近似を利用したPPRGoモデルを提案する。
高速であることに加えて、PPRGoは本質的にスケーラブルであり、業界設定で見られるような大規模なデータセットに対して、自明に並列化することができる。
このグラフのすべてのノードに対するPPRGoのトレーニングとラベルの予測には1台のマシンで2分未満で、同じグラフ上の他のベースラインをはるかに上回ります。
論文 参考訳(メタデータ) (2020-07-03T09:30:07Z) - Wasserstein Embedding for Graph Learning [33.90471037116372]
Wasserstein Embedding for Graph Learning (WEGL)は、グラフ全体をベクトル空間に埋め込むフレームワークである。
グラフ間の類似性をノード埋め込み分布間の類似性の関数として定義する上で,新たな知見を活用する。
各種ベンチマークグラフ固有性予測タスクにおける新しいグラフ埋め込み手法の評価を行った。
論文 参考訳(メタデータ) (2020-06-16T18:23:00Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。