論文の概要: GraphSnapShot: Graph Machine Learning Acceleration with Fast Storage and Retrieval
- arxiv url: http://arxiv.org/abs/2406.17918v3
- Date: Tue, 19 Nov 2024 18:24:03 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-11-20 13:32:44.411816
- Title: GraphSnapShot: Graph Machine Learning Acceleration with Fast Storage and Retrieval
- Title(参考訳): GraphSnapShot: 高速ストレージと検索を備えたグラフ機械学習の高速化
- Authors: Dong Liu, Roger Waleffe, Meng Jiang, Shivaram Venkataraman,
- Abstract要約: GraphSnapShotは、グラフ学習のための高速キャッシュ、ストレージ、検索、計算のためのフレームワークである。
実験では、GraphSnapShotは効率性を示し、最大30%のトレーニングアクセラレーションと73%のメモリ削減を達成することができる。
- 参考スコア(独自算出の注目度): 19.225957670728622
- License:
- Abstract: In our recent research, we have developed a framework called GraphSnapShot, which has been proven an useful tool for graph learning acceleration. GraphSnapShot is a framework for fast cache, storage, retrieval and computation for graph learning. It can quickly store and update the local topology of graph structure and allows us to track patterns in the structure of graph networks, just like take snapshots of the graphs. In experiments, GraphSnapShot shows efficiency, it can achieve up to 30% training acceleration and 73% memory reduction for lossless graph ML training compared to current baselines such as dgl.This technique is particular useful for large dynamic graph learning tasks such as social media analysis and recommendation systems to process complex relationships between entities. The code for GraphSnapShot is publicly available at https://github.com/NoakLiu/GraphSnapShot.
- Abstract(参考訳): 最近の研究では、グラフ学習加速に有用なツールであることが証明されたGraphSnapShotというフレームワークを開発した。
GraphSnapShotは、グラフ学習のための高速キャッシュ、ストレージ、検索、計算のためのフレームワークである。
グラフ構造の局所的なトポロジを素早く保存して更新することができ、グラフのスナップショットを取るように、グラフネットワークの構造内のパターンを追跡することができます。
実験では、GraphSnapShotは効率性を示し、dglのような現在のベースラインと比較して、最大30%のトレーニングアクセラレーションと73%のメモリ削減を実現している。この技術は、ソーシャルメディア分析やリコメンデーションシステムといった大規模動的グラフ学習タスクにおいて、エンティティ間の複雑な関係を処理するのに特に有用である。
GraphSnapShotのコードはhttps://github.com/NoakLiu/GraphSnapShotで公開されている。
関連論文リスト
- GraphStorm: all-in-one graph machine learning framework for industry applications [75.23076561638348]
GraphStormはスケーラブルなグラフ構築、グラフモデルのトレーニング、推論のためのエンドツーエンドソリューションである。
GraphStormのすべてのコンポーネントは数十億のノードを持つグラフ上で動作でき、コードを変更することなく、モデルのトレーニングと推論を異なるハードウェアにスケールすることができる。
GraphStormは、2023年5月にリリースされて以来、数十億以上の業界アプリケーションで使われ、デプロイされてきた。
論文 参考訳(メタデータ) (2024-06-10T04:56:16Z) - Selective Parallel Loading of Large-Scale Compressed Graphs with ParaGrapher [3.298283787389057]
ParaGrapherは、大規模および圧縮されたグラフをロードするための高性能なAPIとライブラリである。
本稿ではParaGrapherの設計とグラフ圧縮の性能モデルを提案する。
評価の結果,ParaGrapherはロード時の最大3.2倍,エンドツーエンド実行時の最大5.2倍のスピードアップを実現している。
論文 参考訳(メタデータ) (2024-04-30T17:31:25Z) - The Graph Lottery Ticket Hypothesis: Finding Sparse, Informative Graph
Structure [18.00833762891405]
Graph Lottery Ticket (GLT)仮説: グラフごとに非常に疎いバックボーンが存在する。
本研究は,グラフ学習アルゴリズムの性能に直接影響を及ぼす関心の指標を8つ研究する。
任意のグラフでこれらのGLTを見つけるための単純で効率的なアルゴリズムを提案する。
論文 参考訳(メタデータ) (2023-12-08T00:24:44Z) - State of the Art and Potentialities of Graph-level Learning [54.68482109186052]
グラフレベルの学習は、比較、回帰、分類など、多くのタスクに適用されている。
グラフの集合を学習する伝統的なアプローチは、サブストラクチャのような手作りの特徴に依存している。
ディープラーニングは、機能を自動的に抽出し、グラフを低次元表現に符号化することで、グラフレベルの学習をグラフの規模に適応させるのに役立っている。
論文 参考訳(メタデータ) (2023-01-14T09:15:49Z) - Scaling R-GCN Training with Graph Summarization [71.06855946732296]
リレーショナルグラフ畳み込みネットワーク(R-GCN)のトレーニングは、グラフのサイズに合わない。
本研究では,グラフの要約手法を用いてグラフを圧縮する実験を行った。
AIFB, MUTAG, AMデータセットについて妥当な結果を得た。
論文 参考訳(メタデータ) (2022-03-05T00:28:43Z) - Model-Agnostic Graph Regularization for Few-Shot Learning [60.64531995451357]
グラフ組み込み数ショット学習に関する包括的な研究を紹介します。
本稿では,ラベル間のグラフ情報の組み込みによる影響をより深く理解できるグラフ正規化手法を提案する。
提案手法は,Mini-ImageNetで最大2%,ImageNet-FSで6.7%の性能向上を実現する。
論文 参考訳(メタデータ) (2021-02-14T05:28:13Z) - Graph Contrastive Learning with Augmentations [109.23158429991298]
グラフデータの教師なし表現を学習するためのグラフコントラスト学習(GraphCL)フレームワークを提案する。
我々のフレームワークは、最先端の手法と比較して、類似またはより良い一般化可能性、転送可能性、堅牢性のグラフ表現を作成できることを示す。
論文 参考訳(メタデータ) (2020-10-22T20:13:43Z) - About Graph Degeneracy, Representation Learning and Scalability [2.029783382155471]
ウォークベースグラフ表現学習アルゴリズムの時間とメモリ消費を削減するために,Kコア分解を利用した2つの手法を提案する。
提案手法の有効性を,いくつかの学術的データセットを用いて評価した。
論文 参考訳(メタデータ) (2020-09-04T09:39:43Z) - Iterative Deep Graph Learning for Graph Neural Networks: Better and
Robust Node Embeddings [53.58077686470096]
グラフ構造とグラフ埋め込みを協調的かつ反復的に学習するための、エンドツーエンドのグラフ学習フレームワーク、すなわち、IDGL(Iterative Deep Graph Learning)を提案する。
実験の結果,提案したIDGLモデルは,最先端のベースラインを一貫して上回る,あるいは一致させることができることがわかった。
論文 参考訳(メタデータ) (2020-06-21T19:49:15Z) - SIGN: Scalable Inception Graph Neural Networks [4.5158585619109495]
本稿では,グラフサンプリングの必要性を助長する,効率的でスケーラブルなグラフ深層学習アーキテクチャを提案する。
私たちのアーキテクチャでは、異なるローカルグラフ演算子を使用して、そのタスクに最も適しています。
我々は,1億1000万のノードと15億のエッジを持つ,最大の公開グラフデータセットであるogbn-papers100Mについて,最先端の結果を得た。
論文 参考訳(メタデータ) (2020-04-23T14:46:10Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。