論文の概要: Force2Vec: Parallel force-directed graph embedding
- arxiv url: http://arxiv.org/abs/2009.10035v1
- Date: Thu, 17 Sep 2020 03:53:25 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-17 12:22:57.823744
- Title: Force2Vec: Parallel force-directed graph embedding
- Title(参考訳): Force2Vec: 並列フォース指向グラフ埋め込み
- Authors: Md. Khaledur Rahman, Majedul Haque Sujon, Ariful Azad
- Abstract要約: グラフ埋め込みアルゴリズムはグラフを低次元空間に埋め込み、グラフ固有の性質を保存する。
我々は、機械学習(ML)と可視化タスクの両方に優れるグラフ埋め込み設定において、フォース指向グラフレイアウトモデルを使用するForce2Vecを開発した。
- 参考スコア(独自算出の注目度): 3.577310844634503
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: A graph embedding algorithm embeds a graph into a low-dimensional space such
that the embedding preserves the inherent properties of the graph. While graph
embedding is fundamentally related to graph visualization, prior work did not
exploit this connection explicitly. We develop Force2Vec that uses
force-directed graph layout models in a graph embedding setting with an aim to
excel in both machine learning (ML) and visualization tasks. We make Force2Vec
highly parallel by mapping its core computations to linear algebra and
utilizing multiple levels of parallelism available in modern processors. The
resultant algorithm is an order of magnitude faster than existing methods (43x
faster than DeepWalk, on average) and can generate embeddings from graphs with
billions of edges in a few hours. In comparison to existing methods, Force2Vec
is better in graph visualization and performs comparably or better in ML tasks
such as link prediction, node classification, and clustering. Source code is
available at https://github.com/HipGraph/Force2Vec.
- Abstract(参考訳): グラフ埋め込みアルゴリズムはグラフを低次元空間に埋め込み、グラフの固有特性を保存する。
グラフ埋め込みは基本的にグラフの可視化に関連しているが、以前の作業ではこの接続を明示的に利用していなかった。
我々は、機械学習(ML)と可視化タスクの両方に優れるグラフ埋め込み設定において、フォース指向グラフレイアウトモデルを使用するForce2Vecを開発した。
我々は、コア計算を線形代数にマッピングし、現代のプロセッサで利用可能な複数の並列性を活用することで、Force2Vecを高度に並列化する。
結果として得られるアルゴリズムは、既存の手法(平均ではDeepWalkの43倍速い)よりも桁違いに高速で、数時間で数十億のエッジを持つグラフから埋め込みを生成することができる。
既存の手法と比較して、Force2Vecはグラフの可視化に優れており、リンク予測、ノード分類、クラスタリングといったMLタスクにおいて、互換性のある、あるいはより優れた処理を行う。
ソースコードはhttps://github.com/HipGraph/Force2Vec.comで入手できる。
関連論文リスト
- Learning on Large Graphs using Intersecting Communities [13.053266613831447]
MPNNは、各ノードの隣人からのメッセージを集約することで、入力グラフ内の各ノードの表現を反復的に更新する。
MPNNは、あまりスパースではないため、すぐに大きなグラフの禁止になるかもしれない。
本稿では,入力グラフを交差するコミュニティグラフ (ICG) として近似することを提案する。
論文 参考訳(メタデータ) (2024-05-31T09:26:26Z) - Graph Chain-of-Thought: Augmenting Large Language Models by Reasoning on Graphs [60.71360240206726]
大規模言語モデル(LLM)は、特に知識集約的なタスクにおいて幻覚に悩まされる。
既存の研究は、外部知識コーパスから取得した個々のテキスト単位でLLMを拡張することを提案する。
本稿では,グラフを反復的に推論することで,LLMをグラフで拡張するためのGraph Chain-of-thinkt (Graph-CoT) というフレームワークを提案する。
論文 参考訳(メタデータ) (2024-04-10T15:41:53Z) - SimTeG: A Frustratingly Simple Approach Improves Textual Graph Learning [131.04781590452308]
テキストグラフ学習におけるフラストレーションに富んだアプローチであるSimTeGを提案する。
まず、下流タスクで予め訓練されたLM上で、教師付きパラメータ効率の微調整(PEFT)を行う。
次に、微調整されたLMの最後の隠れ状態を用いてノード埋め込みを生成する。
論文 参考訳(メタデータ) (2023-08-03T07:00:04Z) - CGMN: A Contrastive Graph Matching Network for Self-Supervised Graph
Similarity Learning [65.1042892570989]
自己教師付きグラフ類似性学習のためのコントラストグラフマッチングネットワーク(CGMN)を提案する。
我々は,効率的なノード表現学習のために,クロスビューインタラクションとクロスグラフインタラクションという2つの戦略を用いる。
我々はノード表現をグラフ類似性計算のためのプール演算によりグラフレベル表現に変換する。
論文 参考訳(メタデータ) (2022-05-30T13:20:26Z) - GraphCoCo: Graph Complementary Contrastive Learning [65.89743197355722]
グラフコントラスト学習(GCL)は、手作業によるアノテーションの監督なしに、グラフ表現学習(GRL)において有望な性能を示した。
本稿では,この課題に対処するため,グラフココというグラフ補完型コントラスト学習手法を提案する。
論文 参考訳(メタデータ) (2022-03-24T02:58:36Z) - Scaling R-GCN Training with Graph Summarization [71.06855946732296]
リレーショナルグラフ畳み込みネットワーク(R-GCN)のトレーニングは、グラフのサイズに合わない。
本研究では,グラフの要約手法を用いてグラフを圧縮する実験を行った。
AIFB, MUTAG, AMデータセットについて妥当な結果を得た。
論文 参考訳(メタデータ) (2022-03-05T00:28:43Z) - Boosting Graph Embedding on a Single GPU [3.093890460224435]
大規模グラフを最小限のハードウェア制約で埋め込むためのGPUベースのツールであるGOSHを提案する。
更新の影響を高め、埋め込み作業を最小限にするため、新しいグラフ粗化アルゴリズムを採用している。
また、任意の任意の大きなグラフを単一のGPUで埋め込むことができる分解スキーマも組み込まれている。
論文 参考訳(メタデータ) (2021-10-19T15:25:04Z) - FeatGraph: A Flexible and Efficient Backend for Graph Neural Network
Systems [23.258185277825888]
FeatGraphは多様なGNNモデルを表現するためのフレキシブルなプログラミングインターフェースを提供する。
FeatGraphは、エンドツーエンドのGNNトレーニングと推論をCPUで最大32倍、GPUで最大7倍高速化する。
論文 参考訳(メタデータ) (2020-08-26T03:17:05Z) - Graph topology inference benchmarks for machine learning [16.857405938139525]
本稿では,グラフ推論手法の相対的メリットと限界を明らかにするために,いくつかのベンチマークを導入する。
我々はまた、文学において最も顕著な技法のいくつかを対比している。
論文 参考訳(メタデータ) (2020-07-16T09:40:32Z) - Wasserstein Embedding for Graph Learning [33.90471037116372]
Wasserstein Embedding for Graph Learning (WEGL)は、グラフ全体をベクトル空間に埋め込むフレームワークである。
グラフ間の類似性をノード埋め込み分布間の類似性の関数として定義する上で,新たな知見を活用する。
各種ベンチマークグラフ固有性予測タスクにおける新しいグラフ埋め込み手法の評価を行った。
論文 参考訳(メタデータ) (2020-06-16T18:23:00Z) - Unsupervised Graph Embedding via Adaptive Graph Learning [85.28555417981063]
グラフオートエンコーダ(GAE)は、グラフ埋め込みのための表現学習において強力なツールである。
本稿では,2つの新しい教師なしグラフ埋め込み法,適応グラフ学習(BAGE)による教師なしグラフ埋め込み,変分適応グラフ学習(VBAGE)による教師なしグラフ埋め込みを提案する。
いくつかのデータセットに関する実験的研究により、我々の手法がノードクラスタリング、ノード分類、グラフ可視化タスクにおいて、ベースラインよりも優れていることが実証された。
論文 参考訳(メタデータ) (2020-03-10T02:33:14Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。