論文の概要: Adversarially Regularized Graph Attention Networks for Inductive
Learning on Partially Labeled Graphs
- arxiv url: http://arxiv.org/abs/2106.03393v1
- Date: Mon, 7 Jun 2021 07:43:28 GMT
- ステータス: 処理完了
- システム内更新日: 2021-06-08 17:32:43.688814
- Title: Adversarially Regularized Graph Attention Networks for Inductive
Learning on Partially Labeled Graphs
- Title(参考訳): 部分ラベルグラフを用いた帰納学習のための逆正則グラフ注意ネットワーク
- Authors: Jiaren Xiao, Quanyu Dai, Xiaochen Xie, James Lam, Ka-Wai Kwok
- Abstract要約: グラフ上の半教師付き学習のための新しい帰納的埋め込み法を提案する。
本手法は,近隣からの情報を集約するパラメトリック関数を学習してノード表現を生成する。
敵の訓練は、学習された表現を事前の分布に合わせるように強制する外部正規化として機能する。
- 参考スコア(独自算出の注目度): 4.535832029902475
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Graph embedding is a general approach to tackling graph-analytic problems by
encoding nodes into low-dimensional representations. Most existing embedding
methods are transductive since the information of all nodes is required in
training, including those to be predicted. In this paper, we propose a novel
inductive embedding method for semi-supervised learning on graphs. This method
generates node representations by learning a parametric function to aggregate
information from the neighborhood using an attention mechanism, and hence
naturally generalizes to previously unseen nodes. Furthermore, adversarial
training serves as an external regularization enforcing the learned
representations to match a prior distribution for improving robustness and
generalization ability. Experiments on real-world clean or noisy graphs are
used to demonstrate the effectiveness of this approach.
- Abstract(参考訳): グラフ埋め込みは、ノードを低次元表現にエンコードすることでグラフ解析問題に取り組む一般的なアプローチである。
既存の埋め込み手法の多くは、予測されるノードを含むすべてのノードの情報を必要とするため、トランスダクティブである。
本稿では,グラフ上の半教師付き学習のための新しい帰納的埋め込み法を提案する。
この方法は、注意機構を用いて近隣から情報を集約するパラメトリック関数を学習してノード表現を生成し、従って自然に未認識のノードに一般化する。
さらに、敵意訓練は、学習された表現を事前分布に適合させる外部正規化として機能し、堅牢性と一般化能力を向上させる。
実世界のクリーングラフやノイズグラフの実験は、このアプローチの有効性を示すために用いられる。
関連論文リスト
- NodeFormer: A Scalable Graph Structure Learning Transformer for Node
Classification [70.51126383984555]
本稿では,任意のノード間のノード信号を効率的に伝搬する全ペアメッセージパッシング方式を提案する。
効率的な計算は、カーナライズされたGumbel-Softmax演算子によって実現される。
グラフ上のノード分類を含む様々なタスクにおいて,本手法の有望な有効性を示す実験を行った。
論文 参考訳(メタデータ) (2023-06-14T09:21:15Z) - MentorGNN: Deriving Curriculum for Pre-Training GNNs [61.97574489259085]
本稿では,グラフ間のGNNの事前学習プロセスの監視を目的とした,MentorGNNというエンドツーエンドモデルを提案する。
我々は、事前学習したGNNの一般化誤差に自然かつ解釈可能な上限を導出することにより、関係データ(グラフ)に対するドメイン適応の問題に新たな光を当てた。
論文 参考訳(メタデータ) (2022-08-21T15:12:08Z) - Learning Robust Representation through Graph Adversarial Contrastive
Learning [6.332560610460623]
既存の研究では、グラフニューラルネットワーク(GNN)によって生成されたノード表現が、敵の攻撃に対して脆弱であることが示されている。
本稿では,グラフ自己教師型学習に対数拡張を導入することにより,新しいグラフ適応型コントラスト学習フレームワーク(GraphACL)を提案する。
論文 参考訳(メタデータ) (2022-01-31T07:07:51Z) - Unbiased Graph Embedding with Biased Graph Observations [52.82841737832561]
基礎となるバイアスのないグラフから学習することで、バイアスのない表現を得るための、原則化された新しい方法を提案する。
この新たな視点に基づいて、そのような基礎となるグラフを明らかにするための2つの補完的手法を提案する。
論文 参考訳(メタデータ) (2021-10-26T18:44:37Z) - A Graph Data Augmentation Strategy with Entropy Preserving [11.886325179121226]
本稿では,グラフ間の特徴情報を評価するための定量的指標として,新しいグラフエントロピー定義を提案する。
グラフエントロピーの保存を考慮し、摂動機構を用いてトレーニングデータを生成する効果的な方法を提案する。
提案手法はトレーニング過程におけるGCNの堅牢性と一般化能力を大幅に向上させる。
論文 参考訳(メタデータ) (2021-07-13T12:58:32Z) - Scaling Up Graph Neural Networks Via Graph Coarsening [18.176326897605225]
グラフニューラルネットワーク(GNN)のスケーラビリティは、マシンラーニングにおける大きな課題のひとつだ。
本稿では,GNNのスケーラブルなトレーニングにグラフ粗大化を用いることを提案する。
既成の粗大化法を単純に適用すれば,分類精度を著しく低下させることなく,ノード数を最大10倍に削減できることを示す。
論文 参考訳(メタデータ) (2021-06-09T15:46:17Z) - A Robust and Generalized Framework for Adversarial Graph Embedding [73.37228022428663]
本稿では,AGE という逆グラフ埋め込みのための頑健なフレームワークを提案する。
AGEは、暗黙の分布から強化された負のサンプルとして偽の隣接ノードを生成する。
本フレームワークでは,3種類のグラフデータを扱う3つのモデルを提案する。
論文 参考訳(メタデータ) (2021-05-22T07:05:48Z) - Uniting Heterogeneity, Inductiveness, and Efficiency for Graph
Representation Learning [68.97378785686723]
グラフニューラルネットワーク(GNN)は,グラフ上のノード表現学習の性能を大幅に向上させた。
GNNの過半数クラスは均質グラフのためにのみ設計されており、より有益な異種グラフに劣る適応性をもたらす。
本稿では,低次ノードと高次ノードの両方のエッジに付随するヘテロジニアスなノード特徴をパッケージ化する,新しい帰納的メタパスフリーメッセージパッシング方式を提案する。
論文 参考訳(メタデータ) (2021-04-04T23:31:39Z) - Learning the Implicit Semantic Representation on Graph-Structured Data [57.670106959061634]
グラフ畳み込みネットワークにおける既存の表現学習手法は主に、各ノードの近傍を知覚全体として記述することで設計される。
本稿では,グラフの潜在意味パスを学習することで暗黙的な意味を探索する意味グラフ畳み込みネットワーク(sgcn)を提案する。
論文 参考訳(メタデータ) (2021-01-16T16:18:43Z) - Anisotropic Graph Convolutional Network for Semi-supervised Learning [7.843067454030999]
グラフ畳み込みネットワークは、高精度な予測結果を達成するのに有用であることが証明された効率的なノード埋め込みを学習する。
これらのネットワークはグラフの過度な平滑化と縮小効果の問題に悩まされており、それはグラフの端に線形ラプラシア流を用いて拡散するからである。
本稿では,ノードからの情報的特徴を捉える非線形関数を導入し,過度なスムーシングを防止し,半教師付きノード分類のための異方性グラフ畳み込みネットワークを提案する。
論文 参考訳(メタデータ) (2020-10-20T13:56:03Z) - Sub-graph Contrast for Scalable Self-Supervised Graph Representation
Learning [21.0019144298605]
既存のグラフニューラルネットワークは、計算量やメモリコストが限られているため、完全なグラフデータで供給される。
textscSubg-Conは、中央ノードとそのサンプルサブグラフ間の強い相関を利用して、地域構造情報をキャプチャすることで提案される。
既存のグラフ表現学習アプローチと比較して、textscSubg-Conは、より弱い監視要件、モデル学習のスケーラビリティ、並列化において、顕著なパフォーマンス上のアドバンテージを持っています。
論文 参考訳(メタデータ) (2020-09-22T01:58:19Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。