論文の概要: Node Duplication Improves Cold-start Link Prediction
- arxiv url: http://arxiv.org/abs/2402.09711v2
- Date: Fri, 01 Aug 2025 19:55:43 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-08-05 18:25:21.513221
- Title: Node Duplication Improves Cold-start Link Prediction
- Title(参考訳): ノード重複によるコールドスタートリンク予測の改善
- Authors: Zhichun Guo, Tong Zhao, Yozen Liu, Kaiwen Dong, William Shiao, Mingxuan Ju, Neil Shah, Nitesh V. Chawla,
- Abstract要約: グラフニューラルネットワーク(GNN)は、グラフ機械学習において顕著である。
近年の研究では、GNNは低次ノードで良い結果を出すのに苦労していることが示されている。
我々はNodeDupと呼ばれるシンプルだが驚くほど効果的な拡張手法を提案する。
- 参考スコア(独自算出の注目度): 53.23625932905255
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Graph Neural Networks (GNNs) are prominent in graph machine learning and have shown state-of-the-art performance in Link Prediction (LP) tasks. Nonetheless, recent studies show that GNNs struggle to produce good results on low-degree nodes despite their overall strong performance. In practical applications of LP, like recommendation systems, improving performance on low-degree nodes is critical, as it amounts to tackling the cold-start problem of improving the experiences of users with few observed interactions. In this paper, we investigate improving GNNs' LP performance on low-degree nodes while preserving their performance on high-degree nodes and propose a simple yet surprisingly effective augmentation technique called NodeDup. Specifically, NodeDup duplicates low-degree nodes and creates links between nodes and their own duplicates before following the standard supervised LP training scheme. By leveraging a ''multi-view'' perspective for low-degree nodes, NodeDup shows significant LP performance improvements on low-degree nodes without compromising any performance on high-degree nodes. Additionally, as a plug-and-play augmentation module, NodeDup can be easily applied to existing GNNs with very light computational cost. Extensive experiments show that NodeDup achieves 38.49%, 13.34%, and 6.76% improvements on isolated, low-degree, and warm nodes, respectively, on average across all datasets compared to GNNs and state-of-the-art cold-start methods.
- Abstract(参考訳): グラフニューラルネットワーク(GNN)はグラフ機械学習において顕著であり、リンク予測(LP)タスクで最先端のパフォーマンスを示している。
しかしながら、最近の研究では、GNNは全体的な性能が強いにもかかわらず、低次ノードで良い結果を出すのに苦労していることが示されている。
LPの実践的応用においては,低次ノードの性能向上が重要視される。
本稿では,高次ノード上での性能を維持しつつ,低次ノード上でのGNNのLP性能の改善について検討し,NodeDupと呼ばれるシンプルながら効果的な拡張手法を提案する。
具体的には、NodeDupは、標準的な教師付きLPトレーニングスキームに従う前に、低次ノードを複製し、ノードとそれ自身の複製の間のリンクを生成する。
の視点を低次ノードに活用することにより、NodeDupは高次ノードのパフォーマンスを損なうことなく、低次ノード上でのLPパフォーマンスが大幅に向上したことを示している。
さらに、プラグインとプレイの拡張モジュールとして、NodeDupは計算コストが非常に軽い既存のGNNにも容易に適用できる。
大規模な実験によると、NodeDupはGNNや最先端のコールドスタート手法と比較して、それぞれ、孤立ノード、低緯度ノード、温暖ノードの38.49%、13.34%、および6.76%の改善を達成した。
関連論文リスト
- Norm Augmented Graph AutoEncoders for Link Prediction [26.246289321470385]
リンク予測はグラフ構造化データにおいて重要な問題である。
本研究では,GAEが学習したノード埋め込みのノルムが,次数の異なるノード間で変動を示すことを示す。
より大きなノルムの埋め込みは、正のリンクに対する高いスコア、負のリンクに対する低いスコアを予測するためにデコーダを導く傾向があることを示す。
論文 参考訳(メタデータ) (2025-02-09T12:08:02Z) - High-Pass Graph Convolutional Network for Enhanced Anomaly Detection: A Novel Approach [0.0]
本稿では,グラフ異常検出(GAD)のためのハイパスグラフ畳み込みネットワーク(HP-GCN)を提案する。
提案したHP-GCNは、異常が正常ノードネットワーク内の高周波信号を増加させる傾向があるため、異常を検出するために高周波成分を利用する。
このモデルはYelpChi、Amazon、T-Finance、T-Socialデータセットで評価され、検証される。
論文 参考訳(メタデータ) (2024-11-04T05:38:07Z) - A Topological Perspective on Demystifying GNN-Based Link Prediction
Performance [72.06314265776683]
トポロジカル濃度 (TC) は、各ノードの局所部分グラフと隣人の部分グラフの交点に基づいている。
また,TCLは,次数や部分グラフ密度などの他のノードレベルのトポロジ指標よりもLP性能と高い相関性を示した。
我々は, 近似トポロジカル濃度 (ATC) を提案し, 理論的・経験的にTC近似の有効性を正当化し, 複雑さを低減させる。
論文 参考訳(メタデータ) (2023-10-06T22:07:49Z) - GraphPatcher: Mitigating Degree Bias for Graph Neural Networks via
Test-time Augmentation [48.88356355021239]
グラフニューラルネットワーク(GNN)は通常、豊富な隣り合う情報を持つ高次ノードで十分に機能するが、低次ノードと競合する。
低次ノード上の任意のGNNのテスト時間一般化を強化するためのテスト時間拡張フレームワークであるGraphPatcherを提案する。
GraphPatcherはGNN全体のパフォーマンスを最大3.6%向上し、低度性能を最大6.5%向上させ、最先端のベースラインを著しく上回っている。
論文 参考訳(メタデータ) (2023-10-01T21:50:03Z) - ResNorm: Tackling Long-tailed Degree Distribution Issue in Graph Neural
Networks via Normalization [80.90206641975375]
本稿では,正規化によるGNNの性能向上に焦点をあてる。
グラフ中のノード次数の長期分布を調べることにより、GNNの新しい正規化法を提案する。
ResNormの$scale$操作は、尾ノードの精度を向上させるために、ノード単位の標準偏差(NStd)分布を再設定する。
論文 参考訳(メタデータ) (2022-06-16T13:49:09Z) - Position-based Hash Embeddings For Scaling Graph Neural Networks [8.87527266373087]
グラフニューラルネットワーク(GNN)は、ノードのエゴネットワークのトポロジとエゴネットワークのノードの特徴を考慮したノード表現を演算する。
ノードが高品質な機能を持っていない場合、GNNはノードの埋め込みを計算するために埋め込み層を学び、それらを入力機能として使用する。
この埋め込みレイヤに関連するメモリを削減するため、NLPやレコメンダシステムのようなアプリケーションで一般的に使用されるハッシュベースのアプローチが利用可能である。
本稿では,グラフ内のノードの位置を利用して,必要なメモリを大幅に削減する手法を提案する。
論文 参考訳(メタデータ) (2021-08-31T22:42:25Z) - Node2Seq: Towards Trainable Convolutions in Graph Neural Networks [59.378148590027735]
今回提案するグラフネットワーク層であるNode2Seqは,隣接ノードの重みを明示的に調整可能なノード埋め込みを学習する。
対象ノードに対して,当手法は注意メカニズムを介して隣接ノードをソートし,さらに1D畳み込みニューラルネットワーク(CNN)を用いて情報集約のための明示的な重み付けを行う。
また, 特徴学習のための非局所的情報を, 注意スコアに基づいて適応的に組み込むことを提案する。
論文 参考訳(メタデータ) (2021-01-06T03:05:37Z) - Understanding and Resolving Performance Degradation in Graph
Convolutional Networks [105.14867349802898]
グラフ畳み込みネットワーク(GCN)は複数のレイヤを積み重ね、グラフ構造化データ上でノード表現を学習するためのPROPとTRANを実行する。
GCNはモデルが深くなるとパフォーマンスが低下する傾向がある。
本稿では,TRANやPROPのみを積み重ねることによるGCNの性能劣化について実験的に検討する。
論文 参考訳(メタデータ) (2020-06-12T12:12:12Z) - Towards Deeper Graph Neural Networks with Differentiable Group
Normalization [61.20639338417576]
グラフニューラルネットワーク(GNN)は、隣接するノードを集約することでノードの表現を学習する。
オーバースムーシングは、レイヤーの数が増えるにつれてGNNのパフォーマンスが制限される重要な問題のひとつです。
2つのオーバースムースなメトリクスと新しいテクニック、すなわち微分可能群正規化(DGN)を導入する。
論文 参考訳(メタデータ) (2020-06-12T07:18:02Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。