論文の概要: Contrastive Adaptive Propagation Graph Neural Networks for Efficient
Graph Learning
- arxiv url: http://arxiv.org/abs/2112.01110v1
- Date: Thu, 2 Dec 2021 10:35:33 GMT
- ステータス: 処理完了
- システム内更新日: 2021-12-03 16:41:41.399100
- Title: Contrastive Adaptive Propagation Graph Neural Networks for Efficient
Graph Learning
- Title(参考訳): 効率的なグラフ学習のためのコントラスト適応伝播グラフニューラルネットワーク
- Authors: Jun Hu, Shengsheng Qian, Quan Fang, Changsheng Xu
- Abstract要約: グラフネットワーク(GNN)は、構造認識特徴の抽出と伝播によってグラフデータの処理に成功している。
近年,地域と高階の双方からなる拡張された隣人を直接扱えるように,近隣住民に焦点を絞った局所的伝播計画から拡張的伝播計画へと発展してきた。
優れた性能にもかかわらず、既存のアプローチは、局所的および高次隣人の影響を適応的に調整できる効率的で学習可能な拡張伝搬スキームを構築するのにはまだ不十分である。
- 参考スコア(独自算出の注目度): 65.08818785032719
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Graph Neural Networks (GNNs) have achieved great success in processing graph
data by extracting and propagating structure-aware features. Existing GNN
research designs various propagation schemes to guide the aggregation of
neighbor information. Recently the field has advanced from local propagation
schemes that focus on local neighbors towards extended propagation schemes that
can directly deal with extended neighbors consisting of both local and
high-order neighbors. Despite the impressive performance, existing approaches
are still insufficient to build an efficient and learnable extended propagation
scheme that can adaptively adjust the influence of local and high-order
neighbors. This paper proposes an efficient yet effective end-to-end framework,
namely Contrastive Adaptive Propagation Graph Neural Networks (CAPGNN), to
address these issues by combining Personalized PageRank and attention
techniques. CAPGNN models the learnable extended propagation scheme with a
polynomial of a sparse local affinity matrix, where the polynomial relies on
Personalized PageRank to provide superior initial coefficients. In order to
adaptively adjust the influence of both local and high-order neighbors, a
coefficient-attention model is introduced to learn to adjust the coefficients
of the polynomial. In addition, we leverage self-supervised learning techniques
and design a negative-free entropy-aware contrastive loss to explicitly take
advantage of unlabeled data for training. We implement CAPGNN as two different
versions named CAPGCN and CAPGAT, which use static and dynamic sparse local
affinity matrices, respectively. Experiments on graph benchmark datasets
suggest that CAPGNN can consistently outperform or match state-of-the-art
baselines. The source code is publicly available at
https://github.com/hujunxianligong/CAPGNN.
- Abstract(参考訳): グラフニューラルネットワーク(GNN)は,構造認識特徴の抽出と伝播によって,グラフデータ処理において大きな成功を収めている。
既存のGNN研究は、近隣情報の集約を導く様々な伝搬スキームを設計している。
近年,地域と高階の双方からなる拡張された隣人を直接扱えるように,近隣住民に焦点を絞った局所的伝播計画から拡張的伝播計画へと発展してきた。
優れた性能にもかかわらず、既存のアプローチは、局所的および高次隣人の影響を適応的に調整できる効率的で学習可能な拡張伝搬スキームを構築するには不十分である。
本稿では,パーソナライズされたページランクとアテンション技術を組み合わせることで,この問題に対処できる効率的なエンドツーエンドフレームワーク,すなわちコントラスト型適応伝播グラフニューラルネットワーク(capgnn)を提案する。
CAPGNNは、学習可能な拡張伝搬スキームを、パーソナライズされたPageRankに依存して、より優れた初期係数を提供するスパース局所親和行列の多項式でモデル化する。
局所および高次近傍の影響を適応的に調整するために,多項式の係数を調整するための係数アテンションモデルを導入する。
さらに, 自己教師付き学習技術を活用し, 負のフリーエントロピーを意識したコントラスト損失を設計し, ラベルのないデータをトレーニングに活用する。
静的な局所親和性行列と動的親和性行列を用いるCAPGCNとCAPGATの2つの異なるバージョンとしてCAPGNNを実装した。
グラフベンチマークデータセットの実験から、CAPGNNは一貫して、最先端のベースラインを達成または適合させることができることが示唆されている。
ソースコードはhttps://github.com/hujunxianligong/CAPGNNで公開されている。
関連論文リスト
- GraphLoRA: Structure-Aware Contrastive Low-Rank Adaptation for Cross-Graph Transfer Learning [17.85404473268992]
グラフニューラルネットワーク(GNN)は、様々なグラフ解析タスクを扱うのに顕著な習熟度を示した。
汎用性にもかかわらず、GNNはトランスファービリティにおいて重大な課題に直面し、現実のアプリケーションでの利用を制限している。
グラフ領域によく訓練されたGNNを転送するための有効かつパラメータ効率のよいGraphLoRAを提案する。
論文 参考訳(メタデータ) (2024-09-25T06:57:42Z) - Scalable Graph Compressed Convolutions [68.85227170390864]
ユークリッド畳み込みのための入力グラフのキャリブレーションに置換を適用する微分可能手法を提案する。
グラフキャリブレーションに基づいて,階層型グラフ表現学習のための圧縮畳み込みネットワーク(CoCN)を提案する。
論文 参考訳(メタデータ) (2024-07-26T03:14:13Z) - Chasing Fairness in Graphs: A GNN Architecture Perspective [73.43111851492593]
グラフニューラルネットワーク(GNN)の統一最適化フレームワーク内で設計されたtextsfFair textsfMessage textsfPassing(FMP)を提案する。
FMPでは、アグリゲーションがまず隣人の情報を活用するために採用され、バイアス軽減ステップにより、人口集団ノードのプレゼンテーションセンタが明示的に統合される。
ノード分類タスクの実験により、提案されたFMPは、実世界の3つのデータセットの公平性と正確性の観点から、いくつかのベースラインを上回っていることが示された。
論文 参考訳(メタデータ) (2023-12-19T18:00:15Z) - Efficient Heterogeneous Graph Learning via Random Projection [58.4138636866903]
不均一グラフニューラルネットワーク(HGNN)は、異種グラフを深層学習するための強力なツールである。
最近のプリ計算ベースのHGNNは、一時間メッセージパッシングを使用して不均一グラフを正規形テンソルに変換する。
我々はRandom Projection Heterogeneous Graph Neural Network (RpHGNN) というハイブリッド計算前HGNNを提案する。
論文 参考訳(メタデータ) (2023-10-23T01:25:44Z) - Factor Graph Neural Networks [20.211455592922736]
グラフニューラルネットワーク(GNN)は、多くの現実世界のアプリケーションで大きな成功を収めながら、エンドツーエンドで強力な表現を学習することができる。
推論と学習の高次関係を効果的に捉えるためにFGNN(Facter Graph Neural Networks)を提案する。
論文 参考訳(メタデータ) (2023-08-02T00:32:02Z) - AGNN: Alternating Graph-Regularized Neural Networks to Alleviate
Over-Smoothing [29.618952407794776]
グラフ畳み込み層(GCL)とグラフ埋め込み層(GEL)からなる交代グラフ正規化ニューラルネットワーク(AGNN)を提案する。
GELはラプラシアン埋め込み項を含むグラフ正規化最適化から導かれる。
AGNNは、いくつかの多層または多次グラフニューラルネットワークのパフォーマンス比較を含む、多数の実験を通じて評価されている。
論文 参考訳(メタデータ) (2023-04-14T09:20:03Z) - Optimal Propagation for Graph Neural Networks [51.08426265813481]
最適グラフ構造を学習するための二段階最適化手法を提案する。
また、時間的複雑さをさらに軽減するために、低ランク近似モデルについても検討する。
論文 参考訳(メタデータ) (2022-05-06T03:37:00Z) - Neural Structured Prediction for Inductive Node Classification [29.908759584092167]
本稿では,ラベル付き学習グラフのモデルを学習し,未ラベルの試験グラフ上でノードラベルを推論するために一般化することを目的とした,帰納的環境におけるノード分類について検討する。
本稿では,両者の利点を組み合わせたSPN(Structured Proxy Network)という新しいアプローチを提案する。
論文 参考訳(メタデータ) (2022-04-15T15:50:27Z) - Local Augmentation for Graph Neural Networks [78.48812244668017]
本稿では,局所的な部分グラフ構造によりノード特性を向上する局所拡張を提案する。
局所的な拡張に基づいて、プラグイン・アンド・プレイ方式で任意のGNNモデルに適用可能な、LA-GNNという新しいフレームワークをさらに設計する。
論文 参考訳(メタデータ) (2021-09-08T18:10:08Z) - An Uncoupled Training Architecture for Large Graph Learning [20.784230322205232]
グラフデータをグリッドライクなデータに埋め込むための、柔軟なアンカップリングトレーニングフレームワークであるNode2Gridsを紹介します。
各ノードの影響を次々にランク付けすることで、Node2Gridsは最も影響力のある1階と、中央ノードの融合情報を持つ2階の隣人を選択する。
下流タスクの効率をさらに向上するために、単純なCNNベースのニューラルネットワークを使用して、マッピングされたグリッドのようなデータから重要な情報をキャプチャする。
論文 参考訳(メタデータ) (2020-03-21T11:49:16Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。