論文の概要: Echoless Label-Based Pre-computation for Memory-Efficient Heterogeneous Graph Learning
- arxiv url: http://arxiv.org/abs/2511.11081v1
- Date: Fri, 14 Nov 2025 08:53:39 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-11-17 22:42:18.510044
- Title: Echoless Label-Based Pre-computation for Memory-Efficient Heterogeneous Graph Learning
- Title(参考訳): メモリ効率な不均一グラフ学習のためのエコーレスラベルに基づく事前計算
- Authors: Jun Hu, Shangheng Chen, Yufei He, Yuan Li, Bryan Hooi, Bingsheng He,
- Abstract要約: 不均一グラフニューラルネットワーク(HGNN)は異種グラフの深層学習に広く用いられている。
HGNNは、トレーニング中に繰り返しメッセージパッシングを必要とし、大規模な実世界のグラフの効率を制限している。
プリプロセッシング時にのみメッセージパッシングを行うプリ計算ベースのHGNNを提案する。
- 参考スコア(独自算出の注目度): 70.73716819236627
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Heterogeneous Graph Neural Networks (HGNNs) are widely used for deep learning on heterogeneous graphs. Typical end-to-end HGNNs require repetitive message passing during training, limiting efficiency for large-scale real-world graphs. Pre-computation-based HGNNs address this by performing message passing only once during preprocessing, collecting neighbor information into regular-shaped tensors, which enables efficient mini-batch training. Label-based pre-computation methods collect neighbors' label information but suffer from training label leakage, where a node's own label information propagates back to itself during multi-hop message passing - the echo effect. Existing mitigation strategies are memory-inefficient on large graphs or suffer from compatibility issues with advanced message passing methods. We propose Echoless Label-based Pre-computation (Echoless-LP), which eliminates training label leakage with Partition-Focused Echoless Propagation (PFEP). PFEP partitions target nodes and performs echoless propagation, where nodes in each partition collect label information only from neighbors in other partitions, avoiding echo while remaining memory-efficient and compatible with any message passing method. We also introduce an Asymmetric Partitioning Scheme (APS) and a PostAdjust mechanism to address information loss from partitioning and distributional shifts across partitions. Experiments on public datasets demonstrate that Echoless-LP achieves superior performance and maintains memory efficiency compared to baselines.
- Abstract(参考訳): 不均一グラフニューラルネットワーク(HGNN)は異種グラフの深層学習に広く用いられている。
典型的なエンドツーエンドHGNNは、トレーニング中に繰り返しメッセージパッシングを必要とし、大規模な実世界のグラフの効率を制限している。
プリ計算ベースのHGNNは、前処理中に1回だけメッセージパッシングを行い、隣の情報を通常のテンソルに集めることでこの問題に対処する。
ラベルベースの事前計算手法は、近隣のラベル情報を収集するが、トレーニングラベルの漏洩に悩まされ、ノードのラベル情報がマルチホップメッセージパッシング中に自分自身に伝播する。
既存の緩和戦略は、大きなグラフ上でのメモリ非効率や、高度なメッセージパッシングメソッドとの互換性の問題に悩まされている。
PFEP(Partition-Focused Echoless Propagation)によるトレーニングラベルの漏洩を解消するEcholess Label-based Pre-computation(Echoless-LP)を提案する。
PFEPはターゲットノードをパーティションし、エコーのない伝搬を行う。各パーティション内のノードは、他のパーティション内の隣人からのみラベル情報を収集する。
また,非対称分割方式 (APS) とPostAdjust 機構を導入し,パーティショニングからの情報損失とパーティショニング間の分散シフトに対処する。
パブリックデータセットの実験では、Echoless-LPはベースラインよりも優れたパフォーマンスを実現し、メモリ効率を維持することが示されている。
関連論文リスト
- Graph Parsing Networks [64.5041886737007]
本稿では,効率的なグラフ解析アルゴリズムを提案する。
結果として得られるグラフパーシングネットワーク(GPN)は、個々のグラフに対してパーソナライズされたプーリング構造を適応的に学習する。
論文 参考訳(メタデータ) (2024-02-22T09:08:36Z) - Efficient Heterogeneous Graph Learning via Random Projection [58.4138636866903]
不均一グラフニューラルネットワーク(HGNN)は、異種グラフを深層学習するための強力なツールである。
最近のプリ計算ベースのHGNNは、一時間メッセージパッシングを使用して不均一グラフを正規形テンソルに変換する。
我々はRandom Projection Heterogeneous Graph Neural Network (RpHGNN) というハイブリッド計算前HGNNを提案する。
論文 参考訳(メタデータ) (2023-10-23T01:25:44Z) - All Points Matter: Entropy-Regularized Distribution Alignment for
Weakly-supervised 3D Segmentation [67.30502812804271]
擬似ラベルは、弱い教師付き3Dセグメンテーションタスクに広く使われており、学習に使えるのはスパース・グラウンド・トラス・ラベルのみである。
本稿では,生成した擬似ラベルを正規化し,擬似ラベルとモデル予測とのギャップを効果的に狭めるための新しい学習戦略を提案する。
論文 参考訳(メタデータ) (2023-05-25T08:19:31Z) - Plug-and-Play Pseudo Label Correction Network for Unsupervised Person
Re-identification [36.3733132520186]
グラフベースの擬似ラベル補正ネットワーク(GLC)を提案する。
GLC は k 近傍グラフ上のサンプル間の関係制約を用いて初期雑音ラベルを補正する。
本手法は,様々なクラスタリング手法と互換性があり,最新技術の性能を継続的に向上させる。
論文 参考訳(メタデータ) (2022-06-14T05:59:37Z) - Memory-based Message Passing: Decoupling the Message for Propogation
from Discrimination [6.7605701314795095]
メッセージパッシングはグラフニューラルネットワーク(GNN)の基本手順である
本稿では、各ノードのメッセージを識別のための自己埋め込み部と伝搬のためのメモリ部に分離するメモリベースのメッセージパッシング(MMP)手法を提案する。
私たちのMMPは、従来のGNNのパフォーマンス向上に役立つ追加レイヤとして機能する一般的なスキルです。
論文 参考訳(メタデータ) (2022-02-01T14:15:32Z) - Adaptive Label Smoothing To Regularize Large-Scale Graph Training [46.00927775402987]
本研究では, 適応ラベル平滑化法 (ALS) を提案する。
ALSはノードラベルを伝播して、前処理ステップで近隣ラベルの分布を集約し、その後、最適なスムーズなラベルをオンラインで更新して、特定のグラフ構造に適合させる。
論文 参考訳(メタデータ) (2021-08-30T23:51:31Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。