論文の概要: Iterative Deep Graph Learning for Graph Neural Networks: Better and
Robust Node Embeddings
- arxiv url: http://arxiv.org/abs/2006.13009v2
- Date: Fri, 23 Oct 2020 02:03:11 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-18 11:48:15.152382
- Title: Iterative Deep Graph Learning for Graph Neural Networks: Better and
Robust Node Embeddings
- Title(参考訳): グラフニューラルネットワークのための反復的ディープグラフ学習:より良いノード埋め込み
- Authors: Yu Chen, Lingfei Wu and Mohammed J. Zaki
- Abstract要約: グラフ構造とグラフ埋め込みを協調的かつ反復的に学習するための、エンドツーエンドのグラフ学習フレームワーク、すなわち、IDGL(Iterative Deep Graph Learning)を提案する。
実験の結果,提案したIDGLモデルは,最先端のベースラインを一貫して上回る,あるいは一致させることができることがわかった。
- 参考スコア(独自算出の注目度): 53.58077686470096
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In this paper, we propose an end-to-end graph learning framework, namely
Iterative Deep Graph Learning (IDGL), for jointly and iteratively learning
graph structure and graph embedding. The key rationale of IDGL is to learn a
better graph structure based on better node embeddings, and vice versa (i.e.,
better node embeddings based on a better graph structure). Our iterative method
dynamically stops when the learned graph structure approaches close enough to
the graph optimized for the downstream prediction task. In addition, we cast
the graph learning problem as a similarity metric learning problem and leverage
adaptive graph regularization for controlling the quality of the learned graph.
Finally, combining the anchor-based approximation technique, we further propose
a scalable version of IDGL, namely IDGL-Anch, which significantly reduces the
time and space complexity of IDGL without compromising the performance. Our
extensive experiments on nine benchmarks show that our proposed IDGL models can
consistently outperform or match the state-of-the-art baselines. Furthermore,
IDGL can be more robust to adversarial graphs and cope with both transductive
and inductive learning.
- Abstract(参考訳): 本稿では,グラフ構造とグラフ埋め込みを協調的かつ反復的に学習するための,エンドツーエンドのグラフ学習フレームワーク,すなわちIterative Deep Graph Learning(IDGL)を提案する。
IDGLの重要な根拠は、より良いノード埋め込みに基づくより良いグラフ構造を学ぶことであり、その逆(つまり、より良いグラフ構造に基づくより良いノード埋め込み)である。
学習したグラフ構造が下流予測タスクに最適化されたグラフに近づくと,反復的手法は動的に停止する。
さらに,類似度メトリクス学習問題としてグラフ学習問題を取り上げ,学習したグラフの品質を制御するために適応グラフ正則化を利用する。
最後に、アンカーベースの近似手法を組み合わせることで、IDGLのスケーラビリティ、すなわちIDGL-Anchを提案し、性能を損なうことなくIDGLの時間と空間の複雑さを著しく低減する。
9つのベンチマークに関する広範な実験から,提案するidglモデルは,最先端のベースラインを一貫して上回ったり,一致したりすることが示された。
さらに、IDGLは逆グラフに対してより堅牢になり、帰納的学習と帰納的学習の両方に対応できる。
関連論文リスト
- Scalable Implicit Graphon Learning [25.015678499211404]
本稿では、暗黙的ニューラルネットワーク(INR)とグラフニューラルネットワーク(GNN)を組み合わせて、観測されたグラフからグラフを推定するスケーラブルな手法を提案する。
合成グラフと実世界のグラフでSIGLを評価し,既存の手法より優れ,大規模グラフに効果的にスケール可能であることを示した。
論文 参考訳(メタデータ) (2024-10-22T22:44:24Z) - Hypergraph-enhanced Dual Semi-supervised Graph Classification [14.339207883093204]
半教師付きグラフ分類のためのハイパーグラフ拡張DuALフレームワークHEALを提案する。
ノード間の高次関係をよりよく探求するために,複雑なノード依存を適応的に学習するハイパーグラフ構造を設計する。
学習したハイパーグラフに基づいて,ハイパーエッジ間の相互作用を捉える線グラフを導入する。
論文 参考訳(メタデータ) (2024-05-08T02:44:13Z) - GraphEdit: Large Language Models for Graph Structure Learning [62.618818029177355]
グラフ構造学習(GSL)は、グラフ構造データ中のノード間の固有の依存関係と相互作用をキャプチャすることに焦点を当てている。
既存のGSL法は、監督信号として明示的なグラフ構造情報に大きく依存している。
グラフ構造化データの複雑なノード関係を学習するために,大規模言語モデル(LLM)を利用したグラフ編集を提案する。
論文 参考訳(メタデータ) (2024-02-23T08:29:42Z) - GraphGPT: Graph Instruction Tuning for Large Language Models [27.036935149004726]
グラフニューラルネットワーク(GNN)は、グラフ構造を理解するために進化してきた。
堅牢性を高めるために、自己教師付き学習(SSL)はデータ拡張の重要なツールとなっている。
本研究は,ゼロショット学習環境におけるグラフモデルの一般化を推し進めることによって,この問題に対処する。
論文 参考訳(メタデータ) (2023-10-19T06:17:46Z) - Learning Graph Structure from Convolutional Mixtures [119.45320143101381]
本稿では、観測されたグラフと潜伏グラフのグラフ畳み込み関係を提案し、グラフ学習タスクをネットワーク逆(デコンボリューション)問題として定式化する。
固有分解に基づくスペクトル法の代わりに、近似勾配反復をアンロール・トランケートして、グラフデコンボリューションネットワーク(GDN)と呼ばれるパラメータ化ニューラルネットワークアーキテクチャに到達させる。
GDNは、教師付き方式でグラフの分布を学習し、損失関数を適応させることでリンク予測やエッジウェイト回帰タスクを実行し、本質的に帰納的である。
論文 参考訳(メタデータ) (2022-05-19T14:08:15Z) - Towards Unsupervised Deep Graph Structure Learning [67.58720734177325]
本稿では,学習したグラフトポロジを外部ガイダンスなしでデータ自身で最適化する,教師なしグラフ構造学習パラダイムを提案する。
具体的には、元のデータから"アンカーグラフ"として学習目標を生成し、対照的な損失を用いてアンカーグラフと学習グラフとの一致を最大化する。
論文 参考訳(メタデータ) (2022-01-17T11:57:29Z) - GraphTheta: A Distributed Graph Neural Network Learning System With
Flexible Training Strategy [5.466414428765544]
新しい分散グラフ学習システムGraphThetaを紹介します。
複数のトレーニング戦略をサポートし、大規模グラフ上で効率的でスケーラブルな学習を可能にします。
この仕事は、文学における10億規模のネットワーク上で実施された最大のエッジアトリビュートGNN学習タスクを表します。
論文 参考訳(メタデータ) (2021-04-21T14:51:33Z) - Graph Contrastive Learning with Augmentations [109.23158429991298]
グラフデータの教師なし表現を学習するためのグラフコントラスト学習(GraphCL)フレームワークを提案する。
我々のフレームワークは、最先端の手法と比較して、類似またはより良い一般化可能性、転送可能性、堅牢性のグラフ表現を作成できることを示す。
論文 参考訳(メタデータ) (2020-10-22T20:13:43Z) - Unsupervised Graph Embedding via Adaptive Graph Learning [85.28555417981063]
グラフオートエンコーダ(GAE)は、グラフ埋め込みのための表現学習において強力なツールである。
本稿では,2つの新しい教師なしグラフ埋め込み法,適応グラフ学習(BAGE)による教師なしグラフ埋め込み,変分適応グラフ学習(VBAGE)による教師なしグラフ埋め込みを提案する。
いくつかのデータセットに関する実験的研究により、我々の手法がノードクラスタリング、ノード分類、グラフ可視化タスクにおいて、ベースラインよりも優れていることが実証された。
論文 参考訳(メタデータ) (2020-03-10T02:33:14Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。