論文の概要: Dynamic Graph Information Bottleneck
- arxiv url: http://arxiv.org/abs/2402.06716v3
- Date: Sat, 6 Apr 2024 12:38:45 GMT
- ステータス: 処理完了
- システム内更新日: 2024-04-10 01:16:32.373285
- Title: Dynamic Graph Information Bottleneck
- Title(参考訳): Dynamic Graph Information Bottleneck
- Authors: Haonan Yuan, Qingyun Sun, Xingcheng Fu, Cheng Ji, Jianxin Li,
- Abstract要約: 本稿では、ロバストで差別的な表現を学習するための新しい動的グラフ情報ボトルネック(DGIB)フレームワークを提案する。
実世界および合成動的グラフデータセットの実験は、DGIBの敵攻撃に対する優れた堅牢性を示す。
- 参考スコア(独自算出の注目度): 14.347629520002524
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Dynamic Graphs widely exist in the real world, which carry complicated spatial and temporal feature patterns, challenging their representation learning. Dynamic Graph Neural Networks (DGNNs) have shown impressive predictive abilities by exploiting the intrinsic dynamics. However, DGNNs exhibit limited robustness, prone to adversarial attacks. This paper presents the novel Dynamic Graph Information Bottleneck (DGIB) framework to learn robust and discriminative representations. Leveraged by the Information Bottleneck (IB) principle, we first propose the expected optimal representations should satisfy the Minimal-Sufficient-Consensual (MSC) Condition. To compress redundant as well as conserve meritorious information into latent representation, DGIB iteratively directs and refines the structural and feature information flow passing through graph snapshots. To meet the MSC Condition, we decompose the overall IB objectives into DGIB$_{MS}$ and DGIB$_C$, in which the DGIB$_{MS}$ channel aims to learn the minimal and sufficient representations, with the DGIB$_{MS}$ channel guarantees the predictive consensus. Extensive experiments on real-world and synthetic dynamic graph datasets demonstrate the superior robustness of DGIB against adversarial attacks compared with state-of-the-art baselines in the link prediction task. To the best of our knowledge, DGIB is the first work to learn robust representations of dynamic graphs grounded in the information-theoretic IB principle.
- Abstract(参考訳): 動的グラフは、複雑な空間的特徴パターンと時間的特徴パターンを持ち、その表現学習に挑戦する現実世界に広く存在する。
動的グラフニューラルネットワーク(DGNN)は、本質的なダイナミクスを活用することで、印象的な予測能力を示している。
しかし、DGNNは限られた堅牢性を示しており、敵の攻撃を受けやすい。
本稿では、ロバストで差別的な表現を学習するための新しい動的グラフ情報ボトルネック(DGIB)フレームワークを提案する。
Information Bottleneck (IB) の原理を応用して,我々はまず,最適表現が最小満足度(MSC)条件を満たすことを提案する。
DGIBは、冗長な冗長な情報を遅延表現に保存すると共に、グラフスナップショットを通過する構造的及び特徴的情報フローを反復的に指示し、洗練する。
DGIB$_{MS}$とDGIB$_C$に分解し、DGIB$_{MS}$チャネルは最小かつ十分な表現を学習することを目的としており、DGIB$_{MS}$チャネルは予測コンセンサスを保証する。
実世界および合成動的グラフデータセットに関する大規模な実験は、リンク予測タスクにおける最先端のベースラインと比較して、DGIBの敵攻撃に対する強靭性を示す。
我々の知識を最大限に活用するために、DGIBは情報理論のIB原理に基づく動的グラフの堅牢な表現を学ぶ最初の研究である。
関連論文リスト
- Informative Subgraphs Aware Masked Auto-Encoder in Dynamic Graphs [1.3571543090749625]
本稿では,動的グラフの進化を導く情報サブグラフを生成するための制約付き確率的生成モデルを提案する。
DyGISによって同定された情報サブグラフは、動的グラフマスキングオートエンコーダ(DGMAE)の入力として機能する。
論文 参考訳(メタデータ) (2024-09-14T02:16:00Z) - SIG: Efficient Self-Interpretable Graph Neural Network for Continuous-time Dynamic Graphs [34.269958289295516]
我々は,これらの予測の因果的説明を同時に提供しながら,動的グラフ内の将来のリンクを予測することを目的としている。
これらの課題に対処するため、我々は新たな因果推論モデル、すなわち独立因果推定モデル(ICCM)を提案する。
提案手法は, リンク予測精度, 説明精度, 特徴量に対するロバスト性など, 既存の手法よりも優れていた。
論文 参考訳(メタデータ) (2024-05-29T13:09:33Z) - Gradient Transformation: Towards Efficient and Model-Agnostic Unlearning for Dynamic Graph Neural Networks [66.70786325911124]
グラフアンラーニングは、ユーザのプライバシ保護と、望ましくないデータによるネガティブな影響軽減に不可欠なツールとして登場した。
DGNNの普及に伴い、動的グラフアンラーニングの実装を検討することが不可欠となる。
DGNNアンラーニングを実装するために,効率的,効率的,モデルに依存しない,事後処理手法を提案する。
論文 参考訳(メタデータ) (2024-05-23T10:26:18Z) - EasyDGL: Encode, Train and Interpret for Continuous-time Dynamic Graph Learning [92.71579608528907]
本稿では,3つのモジュールから構成される使い勝手の良いパイプライン(EasyDGL)を設計することを目的とする。
EasyDGLは、進化するグラフデータからモデルが学習する周波数コンテンツの予測力を効果的に定量化することができる。
論文 参考訳(メタデータ) (2023-03-22T06:35:08Z) - Spatio-Temporal Latent Graph Structure Learning for Traffic Forecasting [6.428566223253948]
S-Temporal Latent Graph Structure Learning Network (ST-LGSL) を提案する。
このモデルは多層パーセプトロンとK-Nearest Neighborに基づくグラフを用いて、データ全体から潜在グラフトポロジ情報を学習する。
kNNの接地確率行列に基づく依存関係-kNNと類似度メートル法により、ST-LGSLは地理的およびノード類似度に重点を置くトップを集約する。
論文 参考訳(メタデータ) (2022-02-25T10:02:49Z) - Improving Subgraph Recognition with Variational Graph Information
Bottleneck [62.69606854404757]
部分グラフ認識は、グラフ特性に最も有益であるグラフの圧縮された部分構造を発見することを目的としている。
本稿では,サブグラフ内の情報を圧縮するためのノイズ注入手法を提案する。
論文 参考訳(メタデータ) (2021-12-18T10:51:13Z) - Graph Structure Learning with Variational Information Bottleneck [70.62851953251253]
本稿では,新しい変分情報ボトルネックガイド付きグラフ構造学習フレームワーク,すなわちVIB-GSLを提案する。
VIB-GSLは情報的かつ圧縮的なグラフ構造を学習し、特定の下流タスクに対して実行可能な情報を蒸留する。
論文 参考訳(メタデータ) (2021-12-16T14:22:13Z) - Dynamic Graph Representation Learning via Graph Transformer Networks [41.570839291138114]
動的グラフ変換器 (DGT) を用いた動的グラフ学習手法を提案する。
DGTは、グラフトポロジを効果的に学習し、暗黙のリンクをキャプチャするための時空間符号化を持つ。
DGTはいくつかの最先端のベースラインと比較して優れた性能を示す。
論文 参考訳(メタデータ) (2021-11-19T21:44:23Z) - Graph Information Bottleneck [77.21967740646784]
グラフニューラルネットワーク(GNN)は、ネットワーク構造とノード機能から情報を融合する表現的な方法を提供する。
GIBは、一般的なInformation Bottleneck (IB) を継承し、与えられたタスクに対する最小限の表現を学習することを目的としている。
提案したモデルが最先端のグラフ防御モデルよりも堅牢であることを示す。
論文 参考訳(メタデータ) (2020-10-24T07:13:00Z) - GCC: Graph Contrastive Coding for Graph Neural Network Pre-Training [62.73470368851127]
グラフ表現学習は現実世界の問題に対処する強力な手法として登場した。
自己教師付きグラフニューラルネットワーク事前トレーニングフレームワークであるGraph Contrastive Codingを設計する。
3つのグラフ学習タスクと10のグラフデータセットについて実験を行った。
論文 参考訳(メタデータ) (2020-06-17T16:18:35Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。