論文の概要: Local Distance-Preserving Node Embeddings and Their Performance on Random Graphs
- arxiv url: http://arxiv.org/abs/2504.08216v1
- Date: Fri, 11 Apr 2025 02:47:46 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-04-14 14:20:09.019576
- Title: Local Distance-Preserving Node Embeddings and Their Performance on Random Graphs
- Title(参考訳): 局所距離保存ノード埋め込みとそのランダムグラフ上での性能
- Authors: My Le, Luana Ruiz, Souvik Dhara,
- Abstract要約: 局所的な距離保存ノード埋め込みの性能について検討する。
ランドマークベースのアルゴリズムとして知られるこれらの埋め込みは、参照ノードの小さな部分集合(つまりランドマーク)から最短経路を計算することによって、ペアワイズ距離を近似する。
我々の主要な理論的貢献は、アードホス=レーニ・ランダムグラフのようなランダムグラフが、最悪のケースグラフと比較してランドマークベースの埋め込みにおいて低い次元を必要とすることを示している。
実験により,GNNに基づくランドマーク間距離近似が大規模ネットワークによく一般化し,グラフ表現学習のスケーラブルな代替手段を提供することを示した。
- 参考スコア(独自算出の注目度): 6.107812768939554
- License:
- Abstract: Learning node representations is a fundamental problem in graph machine learning. While existing embedding methods effectively preserve local similarity measures, they often fail to capture global functions like graph distances. Inspired by Bourgain's seminal work on Hilbert space embeddings of metric spaces (1985), we study the performance of local distance-preserving node embeddings. Known as landmark-based algorithms, these embeddings approximate pairwise distances by computing shortest paths from a small subset of reference nodes (i.e., landmarks). Our main theoretical contribution shows that random graphs, such as Erd\H{o}s-R\'enyi random graphs, require lower dimensions in landmark-based embeddings compared to worst-case graphs. Empirically, we demonstrate that the GNN-based approximations for the distances to landmarks generalize well to larger networks, offering a scalable alternative for graph representation learning.
- Abstract(参考訳): ノード表現の学習は、グラフ機械学習の基本的な問題である。
既存の埋め込み手法は局所的な類似度を効果的に保存するが、グラフ距離のような大域的な関数を捕捉できないことが多い。
Bourgain の計量空間のヒルベルト空間埋め込みに関する基礎研究 (1985) に触発され、局所的な距離保存ノード埋め込みの性能について研究する。
ランドマークベースのアルゴリズムとして知られるこれらの埋め込みは、参照ノードの小さな部分集合(つまりランドマーク)から最短経路を計算することによって、ペアワイズ距離を近似する。
我々の主要な理論的貢献は、Erd\H{o}s-R\enyiランダムグラフのようなランダムグラフが、最悪のケースグラフと比較してランドマークベースの埋め込みにおいて低い次元を必要とすることを示している。
実験により,GNNに基づくランドマーク間距離近似が大規模ネットワークによく一般化し,グラフ表現学習のスケーラブルな代替手段を提供することを示した。
関連論文リスト
- Deep Manifold Graph Auto-Encoder for Attributed Graph Embedding [51.75091298017941]
本稿では,属性付きグラフデータに対する新しいDeep Manifold (Variational) Graph Auto-Encoder (DMVGAE/DMGAE)を提案する。
提案手法は,最先端のベースラインアルゴリズムを,一般的なデータセット間でのダウンストリームタスクの差を大きく越える。
論文 参考訳(メタデータ) (2024-01-12T17:57:07Z) - Exploiting Edge Features in Graphs with Fused Network Gromov-Wasserstein
Distance [18.522233517515975]
ノードとエッジが特徴を持つグラフを比較するために,Gromov-Wasserstein距離の拡張を導入する。
入力空間または出力空間でグラフが発生する学習タスクにおいて、新しい距離の有効性を実証的に示す。
論文 参考訳(メタデータ) (2023-09-28T17:05:03Z) - NodeFormer: A Scalable Graph Structure Learning Transformer for Node
Classification [70.51126383984555]
本稿では,任意のノード間のノード信号を効率的に伝搬する全ペアメッセージパッシング方式を提案する。
効率的な計算は、カーナライズされたGumbel-Softmax演算子によって実現される。
グラフ上のノード分類を含む様々なタスクにおいて,本手法の有望な有効性を示す実験を行った。
論文 参考訳(メタデータ) (2023-06-14T09:21:15Z) - Tight and fast generalization error bound of graph embedding in metric
space [54.279425319381374]
非ユークリッド計量空間へのグラフ埋め込みは、既存の有界よりもはるかに少ない訓練データを持つユークリッド空間におけるグラフ埋め込みよりも優れていることを示す。
我々の新しい上限は、既存の上限よりもかなり強く速く、最大で$R$と$O(frac1S)$に指数関数できる。
論文 参考訳(メタデータ) (2023-05-13T17:29:18Z) - Geometric Graph Representation Learning via Maximizing Rate Reduction [73.6044873825311]
学習ノード表現は、コミュニティ検出やノード分類などのグラフ解析において、さまざまな下流タスクの恩恵を受ける。
教師なしの方法でノード表現を学習するための幾何学グラフ表現学習(G2R)を提案する。
G2R は異なるグループ内のノードを異なる部分空間にマッピングし、各部分空間はコンパクトで異なる部分空間が分散される。
論文 参考訳(メタデータ) (2022-02-13T07:46:24Z) - Graph Neural Networks with Feature and Structure Aware Random Walk [7.143879014059894]
典型的な好適なグラフでは、エッジを指向する可能性があり、エッジをそのまま扱うか、あるいは単純に非指向にするかは、GNNモデルの性能に大きな影響を与える。
そこで我々は,グラフの方向性を適応的に学習するモデルを開発し,ノード間の長距離相関を生かした。
論文 参考訳(メタデータ) (2021-11-19T08:54:21Z) - GNNAutoScale: Scalable and Expressive Graph Neural Networks via
Historical Embeddings [51.82434518719011]
GNNAutoScale(GAS)は、任意のメッセージパスGNNを大規模グラフにスケールするためのフレームワークである。
ガスは、前回のトレーニングの繰り返しから過去の埋め込みを利用して計算グラフのサブツリー全体を掘り起こします。
ガスは大規模グラフ上で最先端のパフォーマンスに達する。
論文 参考訳(メタデータ) (2021-06-10T09:26:56Z) - COLOGNE: Coordinated Local Graph Neighborhood Sampling [1.6498361958317633]
グラフノードのような個別の未順序オブジェクトを実数値ベクトルで置き換えることは、グラフデータから学ぶための多くのアプローチの中心である。
ノードベクトル表現の座標がグラフノードであるような離散ノード埋め込みを学習する問題に対処する。
これにより、ノードにもともと存在するすべての属性が保存されているため、グラフの解釈可能な機械学習アルゴリズムを設計する扉が開く。
論文 参考訳(メタデータ) (2021-02-09T11:39:06Z) - Graph Pooling with Node Proximity for Hierarchical Representation
Learning [80.62181998314547]
本稿では,ノード近接を利用したグラフプーリング手法を提案し,そのマルチホップトポロジを用いたグラフデータの階層的表現学習を改善する。
その結果,提案したグラフプーリング戦略は,公開グラフ分類ベンチマークデータセットの集合において,最先端のパフォーマンスを達成できることが示唆された。
論文 参考訳(メタデータ) (2020-06-19T13:09:44Z) - Isometric Graph Neural Networks [5.306334746787569]
我々はIsometric Graph Neural Networks (IGNN) の学習手法を提案する。
IGNNは、任意のGNNアルゴリズムがノード間の距離を反映した表現を生成するために、入力表現空間と損失関数を変更する必要がある。
我々はケンドールのタウ(KT)の400%まで、一貫した実質的な改善を観察する。
論文 参考訳(メタデータ) (2020-06-16T22:51:13Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。