論文の概要: CORE: Data Augmentation for Link Prediction via Information Bottleneck
- arxiv url: http://arxiv.org/abs/2404.11032v1
- Date: Wed, 17 Apr 2024 03:20:42 GMT
- ステータス: 処理完了
- システム内更新日: 2024-04-18 15:24:20.898199
- Title: CORE: Data Augmentation for Link Prediction via Information Bottleneck
- Title(参考訳): CORE:Information Bottleneckによるリンク予測のためのデータ拡張
- Authors: Kaiwen Dong, Zhichun Guo, Nitesh V. Chawla,
- Abstract要約: リンク予測(LP)はグラフ表現学習の基本的な課題である。
LPモデルのコンパクトかつ予測的な拡張を学習するための新しいデータ拡張手法であるCOREを提案する。
- 参考スコア(独自算出の注目度): 25.044734252779975
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Link prediction (LP) is a fundamental task in graph representation learning, with numerous applications in diverse domains. However, the generalizability of LP models is often compromised due to the presence of noisy or spurious information in graphs and the inherent incompleteness of graph data. To address these challenges, we draw inspiration from the Information Bottleneck principle and propose a novel data augmentation method, COmplete and REduce (CORE) to learn compact and predictive augmentations for LP models. In particular, CORE aims to recover missing edges in graphs while simultaneously removing noise from the graph structures, thereby enhancing the model's robustness and performance. Extensive experiments on multiple benchmark datasets demonstrate the applicability and superiority of CORE over state-of-the-art methods, showcasing its potential as a leading approach for robust LP in graph representation learning.
- Abstract(参考訳): リンク予測(LP)はグラフ表現学習の基本的な課題であり、様々な分野に応用されている。
しかし、LPモデルの一般化可能性はしばしば、グラフにノイズや突発的な情報が存在することと、グラフデータの固有の不完全性によって損なわれる。
これらの課題に対処するため、我々はInformation Bottleneckの原理からインスピレーションを得て、LPモデルのコンパクトで予測的な拡張を学習するための新しいデータ拡張手法であるCORE(Complete and Reduce)を提案する。
特に、COREはグラフ構造からノイズを取り除きながら、グラフの欠落したエッジを復元することを目的としており、それによってモデルの堅牢性と性能が向上する。
複数のベンチマークデータセットに対する大規模な実験は、最先端の手法よりもCOREの適用性と優位性を示し、グラフ表現学習における堅牢LPの先進的なアプローチとしての可能性を示している。
関連論文リスト
- Introducing Diminutive Causal Structure into Graph Representation Learning [19.132025125620274]
本稿では,グラフニューラルネット(GNN)が専門的な最小の因果構造から洞察を得ることを可能にする新しい手法を提案する。
本手法は,これらの小型因果構造のモデル表現から因果知識を抽出する。
論文 参考訳(メタデータ) (2024-06-13T00:18:20Z) - Efficient Relation-aware Neighborhood Aggregation in Graph Neural Networks via Tensor Decomposition [4.041834517339835]
グラフ畳み込みネットワーク(R-GCN)の集約関数にテンソル分解を組み込んだ新しい知識グラフを提案する。
我々のモデルは、関係型によって定義される低ランクテンソルの射影行列を用いて、隣り合う実体の表現を強化する。
我々は,グラフ処理に固有の1-k-kエンコーダ法のトレーニング制限を緩和するために,コントラスト学習にインスパイアされたトレーニング戦略を採用する。
論文 参考訳(メタデータ) (2022-12-11T19:07:34Z) - Adversarial Cross-View Disentangled Graph Contrastive Learning [30.97720522293301]
グラフデータから最小かつ十分な表現を学習するために,情報ボトルネックの原則に従う ACDGCL を導入する。
提案したモデルが,複数のベンチマークデータセット上でのグラフ分類タスクの最先端性より優れていることを実証的に実証した。
論文 参考訳(メタデータ) (2022-09-16T03:48:39Z) - Robust Causal Graph Representation Learning against Confounding Effects [21.380907101361643]
本稿では,ロバスト因果グラフ表現学習(RCGRL)を提案する。
RCGRLは、無条件のモーメント制約の下でインストゥルメンタル変数を生成するアクティブなアプローチを導入し、グラフ表現学習モデルにより、共同設立者を排除している。
論文 参考訳(メタデータ) (2022-08-18T01:31:25Z) - Mitigating the Performance Sacrifice in DP-Satisfied Federated Settings
through Graph Contrastive Learning [43.73753083910439]
グラフエッジに差分プライバシ(DP)を実装する方法について検討し,性能低下を観察する。
そこで本研究では,DPによる性能低下を軽減するために,グラフのコントラスト学習を活用することを提案する。
5つの広く使用されているベンチマークデータセット上で4つの代表グラフモデルを用いて実施された大規模な実験により、対照的な学習は、モデルがDPによって引き起こされるパフォーマンス低下を実際に緩和することを示した。
論文 参考訳(メタデータ) (2022-07-24T22:48:51Z) - Data Augmentation for Deep Graph Learning: A Survey [66.04015540536027]
まず,グラフデータ拡張のための分類法を提案し,その拡張情報モダリティに基づいて関連研究を分類し,構造化されたレビューを提供する。
DGLにおける2つの課題(すなわち、最適グラフ学習と低リソースグラフ学習)に焦点を当て、グラフデータ拡張に基づく既存の学習パラダイムについて議論し、レビューする。
論文 参考訳(メタデータ) (2022-02-16T18:30:33Z) - Towards Unsupervised Deep Graph Structure Learning [67.58720734177325]
本稿では,学習したグラフトポロジを外部ガイダンスなしでデータ自身で最適化する,教師なしグラフ構造学習パラダイムを提案する。
具体的には、元のデータから"アンカーグラフ"として学習目標を生成し、対照的な損失を用いてアンカーグラフと学習グラフとの一致を最大化する。
論文 参考訳(メタデータ) (2022-01-17T11:57:29Z) - A Robust and Generalized Framework for Adversarial Graph Embedding [73.37228022428663]
本稿では,AGE という逆グラフ埋め込みのための頑健なフレームワークを提案する。
AGEは、暗黙の分布から強化された負のサンプルとして偽の隣接ノードを生成する。
本フレームワークでは,3種類のグラフデータを扱う3つのモデルを提案する。
論文 参考訳(メタデータ) (2021-05-22T07:05:48Z) - Recognizing Predictive Substructures with Subgraph Information
Bottleneck [97.19131149357234]
IB-subgraph というサブグラフを認識するための新しいサブグラフ情報ボトルネック(SIB)フレームワークを提案する。
相互情報の抽出性とグラフデータの離散的性質は、SIBの目的を最適化することが難しいことで知られている。
グラフ学習と大規模ポイントクラウドタスクの実験は、ib-subgraphの優れた特性を示している。
論文 参考訳(メタデータ) (2021-03-20T11:19:43Z) - Diversified Multiscale Graph Learning with Graph Self-Correction [55.43696999424127]
2つのコア成分を組み込んだ多次元グラフ学習モデルを提案します。
情報埋め込みグラフを生成するグラフ自己補正(GSC)機構、および入力グラフの包括的な特性評価を達成するために多様性ブースト正規化(DBR)。
一般的なグラフ分類ベンチマークの実験は、提案されたGSCメカニズムが最先端のグラフプーリング方法よりも大幅に改善されることを示しています。
論文 参考訳(メタデータ) (2021-03-17T16:22:24Z) - Robust Optimization as Data Augmentation for Large-scale Graphs [117.2376815614148]
学習中に勾配に基づく逆方向摂動を伴うノード特徴を反復的に拡張するFLAG(Free Large-scale Adversarial Augmentation on Graphs)を提案する。
FLAGはグラフデータに対する汎用的なアプローチであり、ノード分類、リンク予測、グラフ分類タスクで普遍的に機能する。
論文 参考訳(メタデータ) (2020-10-19T21:51:47Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。