論文の概要: Graph Structure Learning with Temporal Graph Information Bottleneck for Inductive Representation Learning
- arxiv url: http://arxiv.org/abs/2508.14859v1
- Date: Wed, 20 Aug 2025 17:13:19 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-08-21 16:52:41.538112
- Title: Graph Structure Learning with Temporal Graph Information Bottleneck for Inductive Representation Learning
- Title(参考訳): 時間グラフ情報を用いた帰納的表現学習のためのグラフ構造学習
- Authors: Jiafeng Xiong, Rizos Sakellariou,
- Abstract要約: グラフ構造学習(GSL)と時間グラフ情報ボット(TGIB)を統合する汎用フレームワークを提案する。
ノード近傍を拡張・最適化する2段階のGSL構造拡張器を設計する。
TGIBは、情報ボトルネックの原則を時間グラフに拡張し、エッジと機能の両方を正規化することで、最適化されたグラフを洗練する。
- 参考スコア(独自算出の注目度): 1.3728301825671199
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Temporal graph learning is crucial for dynamic networks where nodes and edges evolve over time and new nodes continuously join the system. Inductive representation learning in such settings faces two major challenges: effectively representing unseen nodes and mitigating noisy or redundant graph information. We propose GTGIB, a versatile framework that integrates Graph Structure Learning (GSL) with Temporal Graph Information Bottleneck (TGIB). We design a novel two-step GSL-based structural enhancer to enrich and optimize node neighborhoods and demonstrate its effectiveness and efficiency through theoretical proofs and experiments. The TGIB refines the optimized graph by extending the information bottleneck principle to temporal graphs, regularizing both edges and features based on our derived tractable TGIB objective function via variational approximation, enabling stable and efficient optimization. GTGIB-based models are evaluated to predict links on four real-world datasets; they outperform existing methods in all datasets under the inductive setting, with significant and consistent improvement in the transductive setting.
- Abstract(参考訳): 時間的グラフ学習は、時間とともにノードとエッジが進化し、新しいノードがシステムに継続的に参加する動的ネットワークにとって不可欠である。
このような環境での帰納的表現学習は、目に見えないノードを効果的に表現し、ノイズや冗長なグラフ情報を緩和する2つの大きな課題に直面している。
本稿では,グラフ構造学習(GSL)とテンポラルグラフ情報ボットネック(TGIB)を統合した汎用フレームワークであるGTGIBを提案する。
本稿では, 2段階のGSLに基づく構造拡張器を設計し, ノード近傍の強化と最適化を行い, その有効性と効率を理論的証明と実験により実証する。
TGIBは、情報ボトルネックの原理を時間グラフに拡張して最適化グラフを洗練し、得られた抽出可能なTGIB目標関数に基づいてエッジと特徴を規則化し、安定かつ効率的な最適化を可能にする。
GTGIBベースのモデルは、4つの実世界のデータセットのリンクを予測するために評価される。
関連論文リスト
- SimTeG: A Frustratingly Simple Approach Improves Textual Graph Learning [131.04781590452308]
テキストグラフ学習におけるフラストレーションに富んだアプローチであるSimTeGを提案する。
まず、下流タスクで予め訓練されたLM上で、教師付きパラメータ効率の微調整(PEFT)を行う。
次に、微調整されたLMの最後の隠れ状態を用いてノード埋め込みを生成する。
論文 参考訳(メタデータ) (2023-08-03T07:00:04Z) - Robust Graph Structure Learning with the Alignment of Features and
Adjacency Matrix [8.711977569042865]
クリーンなグラフ構造とそれに対応する表現を共同で学習するグラフ構造学習(GSL)には,多くのアプローチが提案されている。
本稿では,特に特徴情報とグラフ情報の整合性を考慮した新しい正規化GSL手法を提案する。
本手法の有効性を評価するために,実世界のグラフを用いて実験を行った。
論文 参考訳(メタデータ) (2023-07-05T09:05:14Z) - Self-Supervised Temporal Graph learning with Temporal and Structural Intensity Alignment [53.72873672076391]
時間グラフ学習は、動的情報を用いたグラフベースのタスクのための高品質な表現を生成することを目的としている。
本稿では,時間的および構造的情報の両方を抽出する時間的グラフ学習のためのS2Tという自己教師型手法を提案する。
S2Tは、いくつかのデータセットにおける最先端の競合と比較して、少なくとも10.13%のパフォーマンス改善を実現している。
論文 参考訳(メタデータ) (2023-02-15T06:36:04Z) - Directed Acyclic Graph Structure Learning from Dynamic Graphs [44.21230819336437]
特徴(変数)の有向非巡回グラフ(DAG)の構造を推定することは、潜在データ生成プロセスを明らかにする上で重要な役割を果たす。
このようなユビキタスな動的グラフデータに基づくノード特徴生成機構の学習問題について検討する。
論文 参考訳(メタデータ) (2022-11-30T14:22:01Z) - EGRC-Net: Embedding-induced Graph Refinement Clustering Network [66.44293190793294]
埋め込みによるグラフリファインメントクラスタリングネットワーク (EGRC-Net) という新しいグラフクラスタリングネットワークを提案する。
EGRC-Netは学習した埋め込みを利用して初期グラフを適応的に洗練し、クラスタリング性能を向上させる。
提案手法はいくつかの最先端手法より一貫して優れている。
論文 参考訳(メタデータ) (2022-11-19T09:08:43Z) - Towards Unsupervised Deep Graph Structure Learning [67.58720734177325]
本稿では,学習したグラフトポロジを外部ガイダンスなしでデータ自身で最適化する,教師なしグラフ構造学習パラダイムを提案する。
具体的には、元のデータから"アンカーグラフ"として学習目標を生成し、対照的な損失を用いてアンカーグラフと学習グラフとの一致を最大化する。
論文 参考訳(メタデータ) (2022-01-17T11:57:29Z) - Dynamic Graph Representation Learning via Graph Transformer Networks [41.570839291138114]
動的グラフ変換器 (DGT) を用いた動的グラフ学習手法を提案する。
DGTは、グラフトポロジを効果的に学習し、暗黙のリンクをキャプチャするための時空間符号化を持つ。
DGTはいくつかの最先端のベースラインと比較して優れた性能を示す。
論文 参考訳(メタデータ) (2021-11-19T21:44:23Z) - Graph Contrastive Learning with Adaptive Augmentation [23.37786673825192]
本稿では,適応的拡張を用いた新しいグラフコントラスト表現学習法を提案する。
具体的には,ノードの集中度に基づく拡張スキームを設計し,重要な結合構造を明らかにする。
提案手法は,既存の最先端のベースラインを一貫して上回り,教師付きベースラインを超えている。
論文 参考訳(メタデータ) (2020-10-27T15:12:21Z) - Graph Information Bottleneck [77.21967740646784]
グラフニューラルネットワーク(GNN)は、ネットワーク構造とノード機能から情報を融合する表現的な方法を提供する。
GIBは、一般的なInformation Bottleneck (IB) を継承し、与えられたタスクに対する最小限の表現を学習することを目的としている。
提案したモデルが最先端のグラフ防御モデルよりも堅牢であることを示す。
論文 参考訳(メタデータ) (2020-10-24T07:13:00Z) - Iterative Deep Graph Learning for Graph Neural Networks: Better and
Robust Node Embeddings [53.58077686470096]
グラフ構造とグラフ埋め込みを協調的かつ反復的に学習するための、エンドツーエンドのグラフ学習フレームワーク、すなわち、IDGL(Iterative Deep Graph Learning)を提案する。
実験の結果,提案したIDGLモデルは,最先端のベースラインを一貫して上回る,あるいは一致させることができることがわかった。
論文 参考訳(メタデータ) (2020-06-21T19:49:15Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。