論文の概要: L2G2G: a Scalable Local-to-Global Network Embedding with Graph
Autoencoders
- arxiv url: http://arxiv.org/abs/2402.01614v1
- Date: Fri, 2 Feb 2024 18:24:37 GMT
- ステータス: 処理完了
- システム内更新日: 2024-02-05 13:48:11.027670
- Title: L2G2G: a Scalable Local-to-Global Network Embedding with Graph
Autoencoders
- Title(参考訳): L2G2G:グラフオートエンコーダを組み込んだスケーラブルなローカル-グローバルネットワーク
- Authors: Ruikang Ouyang, Andrew Elliott, Stratis Limnios, Mihai Cucuringu,
Gesine Reinert
- Abstract要約: グラフ表現学習は、現実世界のネットワークを分析する一般的なツールである。
GAEはかなり正確だが、スケーラビリティの問題に悩まされている。
高速化のために、Local2Globalアプローチは高速で精度が良いことを示した。
本稿では,拡張性を犠牲にすることなくGAEの精度を向上させるLocal2Global法であるL2G2Gを提案する。
- 参考スコア(独自算出の注目度): 6.945992777272943
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: For analysing real-world networks, graph representation learning is a popular
tool. These methods, such as a graph autoencoder (GAE), typically rely on
low-dimensional representations, also called embeddings, which are obtained
through minimising a loss function; these embeddings are used with a decoder
for downstream tasks such as node classification and edge prediction. While
GAEs tend to be fairly accurate, they suffer from scalability issues. For
improved speed, a Local2Global approach, which combines graph patch embeddings
based on eigenvector synchronisation, was shown to be fast and achieve good
accuracy. Here we propose L2G2G, a Local2Global method which improves GAE
accuracy without sacrificing scalability. This improvement is achieved by
dynamically synchronising the latent node representations, while training the
GAEs. It also benefits from the decoder computing an only local patch loss.
Hence, aligning the local embeddings in each epoch utilises more information
from the graph than a single post-training alignment does, while maintaining
scalability. We illustrate on synthetic benchmarks, as well as real-world
examples, that L2G2G achieves higher accuracy than the standard Local2Global
approach and scales efficiently on the larger data sets. We find that for large
and dense networks, it even outperforms the slow, but assumed more accurate,
GAEs.
- Abstract(参考訳): 実世界のネットワークを分析するために、グラフ表現学習は人気のあるツールである。
グラフオートエンコーダ(GAE)のようなこれらの手法は通常、損失関数の最小化によって得られる低次元表現(埋め込みとも呼ばれる)に依存し、これらの埋め込みはノード分類やエッジ予測などの下流タスクのためのデコーダとして使用される。
GAEはかなり正確だが、スケーラビリティの問題に悩まされている。
高速化のために、固有ベクトル同期に基づくグラフパッチ埋め込みを組み合わせたlocal2globalアプローチが高速であり、精度が向上した。
本稿では,スケーラビリティを犠牲にすることなくGAE精度を向上させるLocal2Global法であるL2G2Gを提案する。
この改善は、GAEをトレーニングしながら潜在ノード表現を動的に同期させることによって達成される。
また、ローカルなパッチ損失のみをデコーダで処理することでメリットも享受できる。
したがって、各エポックにローカルな埋め込みをアライメントすることは、スケーラビリティを維持しながら、1つのトレーニング後のアライメントよりも多くの情報をグラフから利用します。
我々は,l2g2gが標準のlocal2globalアプローチよりも高い精度を達成し,大規模データセット上で効率的にスケールできることを実例と同様に合成ベンチマークで示す。
巨大で高密度なネットワークでは、遅いがより正確なGAEよりも優れています。
関連論文リスト
- A Scalable and Effective Alternative to Graph Transformers [19.018320937729264]
グラフ変換器(GT)が導入された。
GTは、グラフ内のノード数の複雑さに悩まされ、大きなグラフに適用できなくなる。
GTに代わるスケーラブルで効果的なグラフ拡張コンテキスト演算子(GECO)を提案する。
論文 参考訳(メタデータ) (2024-06-17T19:57:34Z) - FedGT: Federated Node Classification with Scalable Graph Transformer [27.50698154862779]
本稿では,スケーラブルな textbfFederated textbfGraph textbfTransformer (textbfFedGT) を提案する。
FedGTは、最適なトランスポートで整列したグローバルノードに基づいて、クライアントの類似性を計算する。
論文 参考訳(メタデータ) (2024-01-26T21:02:36Z) - Graph Transformers for Large Graphs [57.19338459218758]
この研究は、モデルの特徴と重要な設計制約を識別することに焦点を当てた、単一の大規模グラフでの表現学習を前進させる。
この研究の重要な革新は、局所的な注意機構と組み合わされた高速な近傍サンプリング技術の作成である。
ogbn-products と snap-patents の3倍の高速化と16.8%の性能向上を報告し、ogbn-100M で LargeGT を5.9% の性能改善で拡張した。
論文 参考訳(メタデータ) (2023-12-18T11:19:23Z) - Efficient Heterogeneous Graph Learning via Random Projection [58.4138636866903]
不均一グラフニューラルネットワーク(HGNN)は、異種グラフを深層学習するための強力なツールである。
最近のプリ計算ベースのHGNNは、一時間メッセージパッシングを使用して不均一グラフを正規形テンソルに変換する。
我々はRandom Projection Heterogeneous Graph Neural Network (RpHGNN) というハイブリッド計算前HGNNを提案する。
論文 参考訳(メタデータ) (2023-10-23T01:25:44Z) - IGLU: Efficient GCN Training via Lazy Updates [17.24386142849498]
グラフ畳み込みネットワーク(GCN)は、大きな基盤となるグラフと複数のレイヤを含む多くの設定で使用されている。
標準SGDベースのトレーニングは、グラフの大部分のノード埋め込みを更新する各降下ステップが終わるため、ここでは不十分である。
各種GCN層における全ノードに対するフォワードパス埋め込みをキャッシュする新しいIGLU法を提案する。
論文 参考訳(メタデータ) (2021-09-28T19:11:00Z) - Local2Global: Scaling global representation learning on graphs via local
training [6.292766967410996]
本稿では,グラフ表現学習のための分散型「ローカル2言語」アプローチを提案する。
パッチ毎に局所表現を個別に訓練し、局所表現をグローバルに一貫した表現に組み合わせる。
中規模データセットの予備的な結果が期待でき、グローバルに訓練された埋め込みに匹敵するローカル2グロバルのグラフ再構成性能が期待できる。
論文 参考訳(メタデータ) (2021-07-26T14:08:31Z) - GNNAutoScale: Scalable and Expressive Graph Neural Networks via
Historical Embeddings [51.82434518719011]
GNNAutoScale(GAS)は、任意のメッセージパスGNNを大規模グラフにスケールするためのフレームワークである。
ガスは、前回のトレーニングの繰り返しから過去の埋め込みを利用して計算グラフのサブツリー全体を掘り起こします。
ガスは大規模グラフ上で最先端のパフォーマンスに達する。
論文 参考訳(メタデータ) (2021-06-10T09:26:56Z) - Scaling Graph Neural Networks with Approximate PageRank [64.92311737049054]
GNNにおける情報拡散の効率的な近似を利用したPPRGoモデルを提案する。
高速であることに加えて、PPRGoは本質的にスケーラブルであり、業界設定で見られるような大規模なデータセットに対して、自明に並列化することができる。
このグラフのすべてのノードに対するPPRGoのトレーニングとラベルの予測には1台のマシンで2分未満で、同じグラフ上の他のベースラインをはるかに上回ります。
論文 参考訳(メタデータ) (2020-07-03T09:30:07Z) - Fast Graph Attention Networks Using Effective Resistance Based Graph
Sparsification [70.50751397870972]
FastGATは、スペクトルスペーシフィケーションを用いて、注目に基づくGNNを軽量にし、入力グラフの最適プルーニングを生成する手法である。
我々は,ノード分類タスクのための大規模実世界のグラフデータセット上でFastGATを実験的に評価した。
論文 参考訳(メタデータ) (2020-06-15T22:07:54Z) - Graph Highway Networks [77.38665506495553]
グラフ畳み込みネットワーク(GCN)は、グラフ表現の有効性と効率性から、グラフ表現の学習に広く利用されている。
彼らは、多くの層が積み重ねられたとき、学習された表現が類似したベクトルに収束するという悪名高い過度に滑らかな問題に悩まされる。
本稿では,GCN学習プロセスにおける均一性と不均一性との間のトレードオフのバランスをとるため,ゲーティングユニットを利用したグラフハイウェイネットワークを提案する。
論文 参考訳(メタデータ) (2020-04-09T16:26:43Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。