論文の概要: CLGNN: A Contrastive Learning-based GNN Model for Betweenness Centrality Prediction on Temporal Graphs
- arxiv url: http://arxiv.org/abs/2506.14122v1
- Date: Tue, 17 Jun 2025 02:34:09 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-06-18 17:34:59.295466
- Title: CLGNN: A Contrastive Learning-based GNN Model for Betweenness Centrality Prediction on Temporal Graphs
- Title(参考訳): CLGNN: 時間グラフにおける相互中心性予測のためのコントラスト学習ベースGNNモデル
- Authors: Tianming Zhang, Renbo Zhang, Zhengyi Yang, Yunjun Gao, Bin Cao, Jing Fan,
- Abstract要約: 時間的相互中心性(TBC)は、最適な時間的経路にノードが出現する頻度を測定する。
本稿では,スケーラブルでインダクティブな学習型グラフニューラルネットワーク(CLGNN)を提案する。
CLGNNは最先端の正確なTBC計算手法と比較して最大663.7$times$の高速化を実現している。
- 参考スコア(独自算出の注目度): 23.36457180700994
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Temporal Betweenness Centrality (TBC) measures how often a node appears on optimal temporal paths, reflecting its importance in temporal networks. However, exact computation is highly expensive, and real-world TBC distributions are extremely imbalanced. The severe imbalance leads learning-based models to overfit to zero-centrality nodes, resulting in inaccurate TBC predictions and failure to identify truly central nodes. Existing graph neural network (GNN) methods either fail to handle such imbalance or ignore temporal dependencies altogether. To address these issues, we propose a scalable and inductive contrastive learning-based GNN (CLGNN) for accurate and efficient TBC prediction. CLGNN builds an instance graph to preserve path validity and temporal order, then encodes structural and temporal features using dual aggregation, i.e., mean and edge-to-node multi-head attention mechanisms, enhanced by temporal path count and time encodings. A stability-based clustering-guided contrastive module (KContrastNet) is introduced to separate high-, median-, and low-centrality nodes in representation space, mitigating class imbalance, while a regression module (ValueNet) estimates TBC values. CLGNN also supports multiple optimal path definitions to accommodate diverse temporal semantics. Extensive experiments demonstrate the effectiveness and efficiency of CLGNN across diverse benchmarks. CLGNN achieves up to a 663.7~$\times$ speedup compared to state-of-the-art exact TBC computation methods. It outperforms leading static GNN baselines with up to 31.4~$\times$ lower MAE and 16.7~$\times$ higher Spearman correlation, and surpasses state-of-the-art temporal GNNs with up to 5.7~$\times$ lower MAE and 3.9~$\times$ higher Spearman correlation.
- Abstract(参考訳): 時間的相互中心性(TBC)は、ノードが最適な時間的経路に現れる頻度を測定し、時間的ネットワークにおけるその重要性を反映している。
しかし、正確な計算は非常に高価であり、実際のTBC分布は極めて不均衡である。
厳密な不均衡は、学習ベースのモデルをゼロ中央ノードに過度に適合させ、結果として不正確なTBC予測と真の中央ノードの特定に失敗する。
既存のグラフニューラルネットワーク(GNN)メソッドは、そのような不均衡を処理できないか、時間的依存関係を完全に無視する。
これらの問題に対処するため,我々は,正確かつ効率的なTBC予測のためのスケーラブルかつ帰納的学習型GNN(CLGNN)を提案する。
CLGNNは、パスの妥当性と時間的順序を保存するためにインスタンスグラフを構築し、その後、時間的パス数と時間的エンコーディングによって強化された、平均およびノード間マルチヘッドアテンション機構という2つのアグリゲーションを用いて、構造的および時間的特徴を符号化する。
安定性に基づくクラスタリング誘導コントラストモジュール(KContrastNet)を導入し、表現空間における高、中央、低中央のノードを分離し、クラス不均衡を緩和し、回帰モジュール(ValueNet)はTBC値を推定する。
CLGNNはまた、多様な時間的意味論に対応するために、複数の最適パス定義もサポートする。
広範な実験は、様々なベンチマークでCLGNNの有効性と効率を実証している。
CLGNNは663.7〜$\times$の高速化を実現している。
31.4~$\times$ lower MAE と 16.7~$\times$ higher Spearman correlation を上回り、最先端の時間的 GNN を5.7~$\times$ lower MAE と 3.9~$\times$ higher Spearman correlation で上回る。
関連論文リスト
- Explainable Spatio-Temporal GCNNs for Irregular Multivariate Time Series: Architecture and Application to ICU Patient Data [7.433698348783128]
XST-CNN(eXG-Temporal Graph Conal Neural Network)は、不均一で不規則なマルチ時系列(MTS)データを処理するための新しいアーキテクチャである。
提案手法は,GCNNパイプラインを利用して時間的・時間的統合パイプライン内での時間的特徴を捉える。
ICU患者のマルチドラッグ抵抗(MDR)を予測するために,実世界の電子健康記録データを用いてXST-CNNを評価した。
論文 参考訳(メタデータ) (2024-11-01T22:53:17Z) - T-GAE: Transferable Graph Autoencoder for Network Alignment [79.89704126746204]
T-GAEはグラフオートエンコーダフレームワークで、GNNの転送性と安定性を活用して、再トレーニングなしに効率的なネットワークアライメントを実現する。
実験の結果、T-GAEは最先端の最適化手法と最高のGNN手法を最大38.7%、50.8%で上回っていることがわかった。
論文 参考訳(メタデータ) (2023-10-05T02:58:29Z) - TPGNN: Learning High-order Information in Dynamic Graphs via Temporal
Propagation [7.616789069832552]
本稿では,時間的伝搬に基づくグラフニューラルネットワーク,すなわちTPGNNを提案する。
Propagatorは、$k$-hop内のアンカーノードから一時的な隣人へのメッセージを伝搬し、同時に近隣の状態を更新する。
オーバースムーシングを防ぐため、モデルは$n$-hopの隣人からのメッセージを補完し、アンカーに保存された$n$-hopのメモリベクトルを更新する。
論文 参考訳(メタデータ) (2022-10-03T18:39:07Z) - Deep Architecture Connectivity Matters for Its Convergence: A
Fine-Grained Analysis [94.64007376939735]
我々は、勾配降下訓練におけるディープニューラルネットワーク(DNN)の収束に対する接続パターンの影響を理論的に特徴づける。
接続パターンの単純なフィルタリングによって、評価対象のモデルの数を削減できることが示される。
論文 参考訳(メタデータ) (2022-05-11T17:43:54Z) - Learn Locally, Correct Globally: A Distributed Algorithm for Training
Graph Neural Networks [22.728439336309858]
通信効率の良い分散GNNトレーニング手法であるtextLearn Locally, Correct Globally$ (LLCG)を提案する。
LLCGは、異なるマシン間のノード間の依存関係を無視してGNNをローカルデータでトレーニングし、その後、定期的なモデル平均化のためにローカルにトレーニングされたモデルをサーバに送信する。
我々は,GNNを訓練するための周期モデル平均化による分散手法の収束度を厳密に分析し,周期モデル平均化を適用するが,ノード間の依存性を無視することは既約残差に悩まされることを示す。
論文 参考訳(メタデータ) (2021-11-16T03:07:01Z) - A Biased Graph Neural Network Sampler with Near-Optimal Regret [57.70126763759996]
グラフニューラルネットワーク(GNN)は、グラフおよびリレーショナルデータにディープネットワークアーキテクチャを適用する手段として登場した。
本論文では,既存の作業に基づいて,GNN近傍サンプリングをマルチアームバンディット問題として扱う。
そこで本研究では,分散を低減し,不安定かつ非限定的な支払いを回避すべく設計されたバイアスをある程度導入した報酬関数を提案する。
論文 参考訳(メタデータ) (2021-03-01T15:55:58Z) - Reliable Graph Neural Networks via Robust Aggregation [1.7188280334580197]
グラフ構造を標的とした摂動はグラフニューラルネットワーク(GNN)の性能低下に極めて有効であることが証明されている。
敵の訓練のような伝統的な防御は、堅牢性を改善することができないように思われる。
この研究は、対向的に注入されたエッジが、ノードの近傍集約関数に追加のサンプルとして、効果的に見ることができるという観察によって動機付けられている。
論文 参考訳(メタデータ) (2020-10-29T14:55:20Z) - Distillation Guided Residual Learning for Binary Convolutional Neural
Networks [83.6169936912264]
Binary CNN(BCNN)とFloating Point CNN(FCNN)のパフォーマンスギャップを埋めることは難しい。
我々は,この性能差が,BCNNとFCNNの中間特徴写像の間にかなりの残差をもたらすことを観察した。
性能ギャップを最小限に抑えるため,BCNN は FCNN と同様の中間特徴写像を生成する。
このトレーニング戦略、すなわち、FCNNから派生したブロックワイド蒸留損失で各バイナリ畳み込みブロックを最適化することで、BCNNをより効果的に最適化する。
論文 参考訳(メタデータ) (2020-07-10T07:55:39Z) - Towards Deeper Graph Neural Networks with Differentiable Group
Normalization [61.20639338417576]
グラフニューラルネットワーク(GNN)は、隣接するノードを集約することでノードの表現を学習する。
オーバースムーシングは、レイヤーの数が増えるにつれてGNNのパフォーマンスが制限される重要な問題のひとつです。
2つのオーバースムースなメトリクスと新しいテクニック、すなわち微分可能群正規化(DGN)を導入する。
論文 参考訳(メタデータ) (2020-06-12T07:18:02Z) - Bilinear Graph Neural Network with Neighbor Interactions [106.80781016591577]
グラフニューラルネットワーク(GNN)は,グラフデータ上で表現を学習し,予測を行う強力なモデルである。
本稿では,グラフ畳み込み演算子を提案し,隣接するノードの表現の対の相互作用で重み付け和を増大させる。
このフレームワークをBGNN(Bilinear Graph Neural Network)と呼び、隣ノード間の双方向相互作用によるGNN表現能力を向上させる。
論文 参考訳(メタデータ) (2020-02-10T06:43:38Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。