論文の概要: Node Identifiers: Compact, Discrete Representations for Efficient Graph Learning
- arxiv url: http://arxiv.org/abs/2405.16435v2
- Date: Fri, 18 Oct 2024 06:56:10 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-10-21 14:22:18.426674
- Title: Node Identifiers: Compact, Discrete Representations for Efficient Graph Learning
- Title(参考訳): Node Identifiers: グラフ学習のためのコンパクトで離散的な表現
- Authors: Yuankai Luo, Hongkang Li, Qijiong Liu, Lei Shi, Xiao-Ming Wu,
- Abstract要約: 本稿では、高コンパクト(典型的には6-15次元)、離散(int4型)、解釈可能なノード表現を生成する新しいエンドツーエンドフレームワークを提案する。
ベクトル量子化を用いることで、グラフニューラルネットワーク(GNN)の複数層からの連続ノード埋め込みを離散コードに圧縮する。
これらのノードIDはグラフデータの高レベルな抽象化をキャプチャし、従来のGNN埋め込みに欠けている解釈性を提供する。
- 参考スコア(独自算出の注目度): 10.018324412893287
- License:
- Abstract: We present a novel end-to-end framework that generates highly compact (typically 6-15 dimensions), discrete (int4 type), and interpretable node representations, termed node identifiers (node IDs), to tackle inference challenges on large-scale graphs. By employing vector quantization, we compress continuous node embeddings from multiple layers of a Graph Neural Network (GNN) into discrete codes, applicable under both self-supervised and supervised learning paradigms. These node IDs capture high-level abstractions of graph data and offer interpretability that traditional GNN embeddings lack. Extensive experiments on 34 datasets, encompassing node classification, graph classification, link prediction, and attributed graph clustering tasks, demonstrate that the generated node IDs significantly enhance speed and memory efficiency while achieving competitive performance compared to current state-of-the-art methods.
- Abstract(参考訳): 本稿では,大規模グラフにおける推論問題に対処するため,高コンパクト(典型的には6~15次元),離散(int4型),解釈可能なノード表現,いわゆるノード識別子(ノードID)を新たに生成するフレームワークを提案する。
ベクトル量子化を用いることで、グラフニューラルネットワーク(GNN)の複数層からの連続ノード埋め込みを離散コードに圧縮し、自己教師付き学習パラダイムと教師付き学習パラダイムの両方に適用する。
これらのノードIDはグラフデータの高レベルな抽象化をキャプチャし、従来のGNN埋め込みに欠けている解釈性を提供する。
ノード分類、グラフ分類、リンク予測、属性付きグラフクラスタリングタスクを含む34のデータセットに対する大規模な実験により、生成されたノードIDは、現在の最先端手法と比較して競合性能を達成しつつ、スピードとメモリ効率を大幅に向上することを示した。
関連論文リスト
- Self-Attention Empowered Graph Convolutional Network for Structure
Learning and Node Embedding [5.164875580197953]
グラフ構造化データの表現学習では、多くの人気のあるグラフニューラルネットワーク(GNN)が長距離依存をキャプチャできない。
本稿では,自己注意型グラフ畳み込みネットワーク(GCN-SA)と呼ばれる新しいグラフ学習フレームワークを提案する。
提案手法はノードレベルの表現学習において例外的な一般化能力を示す。
論文 参考訳(メタデータ) (2024-03-06T05:00:31Z) - DGNN: Decoupled Graph Neural Networks with Structural Consistency
between Attribute and Graph Embedding Representations [62.04558318166396]
グラフニューラルネットワーク(GNN)は、複雑な構造を持つグラフ上での表現学習の堅牢性を示す。
ノードのより包括的な埋め込み表現を得るために、Decoupled Graph Neural Networks (DGNN)と呼ばれる新しいGNNフレームワークが導入された。
複数のグラフベンチマークデータセットを用いて、ノード分類タスクにおけるDGNNの優位性を検証した。
論文 参考訳(メタデータ) (2024-01-28T06:43:13Z) - GraphRARE: Reinforcement Learning Enhanced Graph Neural Network with Relative Entropy [21.553180564868306]
GraphRAREはノード相対エントロピーと深層強化学習に基づいて構築されたフレームワークである。
革新的なノード相対エントロピーは、ノードペア間の相互情報を測定するために使用される。
グラフトポロジを最適化するために,深層強化学習に基づくアルゴリズムを開発した。
論文 参考訳(メタデータ) (2023-12-15T11:30:18Z) - Graph Ordering Attention Networks [22.468776559433614]
グラフニューラルネットワーク(GNN)は、グラフ構造化データに関わる多くの問題でうまく使われている。
近隣ノード間のインタラクションをキャプチャする新しいGNNコンポーネントであるグラフ順序付け注意層(GOAT)を導入する。
GOATレイヤは、複雑な情報をキャプチャするグラフメトリクスのモデリングにおけるパフォーマンスの向上を示す。
論文 参考訳(メタデータ) (2022-04-11T18:13:19Z) - Uniting Heterogeneity, Inductiveness, and Efficiency for Graph
Representation Learning [68.97378785686723]
グラフニューラルネットワーク(GNN)は,グラフ上のノード表現学習の性能を大幅に向上させた。
GNNの過半数クラスは均質グラフのためにのみ設計されており、より有益な異種グラフに劣る適応性をもたらす。
本稿では,低次ノードと高次ノードの両方のエッジに付随するヘテロジニアスなノード特徴をパッケージ化する,新しい帰納的メタパスフリーメッセージパッシング方式を提案する。
論文 参考訳(メタデータ) (2021-04-04T23:31:39Z) - Learning the Implicit Semantic Representation on Graph-Structured Data [57.670106959061634]
グラフ畳み込みネットワークにおける既存の表現学習手法は主に、各ノードの近傍を知覚全体として記述することで設計される。
本稿では,グラフの潜在意味パスを学習することで暗黙的な意味を探索する意味グラフ畳み込みネットワーク(sgcn)を提案する。
論文 参考訳(メタデータ) (2021-01-16T16:18:43Z) - Node Similarity Preserving Graph Convolutional Networks [51.520749924844054]
グラフニューラルネットワーク(GNN)は、ノード近傍の情報を集約し変換することで、グラフ構造とノードの特徴を探索する。
グラフ構造を利用してノード類似性を効果的かつ効率的に保存できるSimP-GCNを提案する。
本研究は,SimP-GCNが3つの分類グラフと4つの非補助グラフを含む7つのベンチマークデータセットに対して有効であることを示す。
論文 参考訳(メタデータ) (2020-11-19T04:18:01Z) - Representation Learning of Graphs Using Graph Convolutional Multilayer
Networks Based on Motifs [17.823543937167848]
mGCMNはノードの特徴情報とグラフの高階局所構造を利用する新しいフレームワークである。
グラフニューラルネットワークの学習効率を大幅に改善し、新たな学習モードの確立を促進する。
論文 参考訳(メタデータ) (2020-07-31T04:18:20Z) - Structural Temporal Graph Neural Networks for Anomaly Detection in
Dynamic Graphs [54.13919050090926]
本稿では,動的グラフの異常エッジを検出するために,エンドツーエンドの時間構造グラフニューラルネットワークモデルを提案する。
特に,まずターゲットエッジを中心にした$h$ホップ囲むサブグラフを抽出し,各ノードの役割を識別するノードラベル機能を提案する。
抽出した特徴に基づき,GRU(Gated Recurrent Unit)を用いて,異常検出のための時間的情報を取得する。
論文 参考訳(メタデータ) (2020-05-15T09:17:08Z) - Graph Inference Learning for Semi-supervised Classification [50.55765399527556]
半教師付きノード分類の性能を高めるためのグラフ推論学習フレームワークを提案する。
推論過程の学習には,トレーニングノードから検証ノードへの構造関係のメタ最適化を導入する。
4つのベンチマークデータセットの総合的な評価は、最先端の手法と比較して提案したGILの優位性を示している。
論文 参考訳(メタデータ) (2020-01-17T02:52:30Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。