論文の概要: HopGAT: Hop-aware Supervision Graph Attention Networks for Sparsely
Labeled Graphs
- arxiv url: http://arxiv.org/abs/2004.04333v1
- Date: Thu, 9 Apr 2020 02:27:15 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-15 02:11:29.424330
- Title: HopGAT: Hop-aware Supervision Graph Attention Networks for Sparsely
Labeled Graphs
- Title(参考訳): HopGAT: 疎ラベルグラフのためのホップ対応スーパービジョングラフアテンションネットワーク
- Authors: Chaojie Ji, Ruxin Wang, Rongxiang Zhu, Yunpeng Cai, Hongyan Wu
- Abstract要約: 本研究では,ノード分類タスクに対するホップ認識型注意監視機構を提案する。
また,教師付き注意係数と学習戦略の有効性を示す実験を行った。
- 参考スコア(独自算出の注目度): 7.1696593196695035
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Due to the cost of labeling nodes, classifying a node in a sparsely labeled
graph while maintaining the prediction accuracy deserves attention. The key
point is how the algorithm learns sufficient information from more neighbors
with different hop distances. This study first proposes a hop-aware attention
supervision mechanism for the node classification task. A simulated annealing
learning strategy is then adopted to balance two learning tasks, node
classification and the hop-aware attention coefficients, along the training
timeline. Compared with state-of-the-art models, the experimental results
proved the superior effectiveness of the proposed Hop-aware Supervision Graph
Attention Networks (HopGAT) model. Especially, for the protein-protein
interaction network, in a 40% labeled graph, the performance loss is only 3.9%,
from 98.5% to 94.6%, compared to the fully labeled graph. Extensive experiments
also demonstrate the effectiveness of supervised attention coefficient and
learning strategies.
- Abstract(参考訳): ノードのラベル付けコストのため、少ないラベル付きグラフ内のノードを分類し、予測精度を維持しながら、注意に値する。
キーポイントは、アルゴリズムがホップ距離の異なる多くの隣人から十分な情報を学習する方法である。
本研究ではまず,ノード分類タスクに対するホップ認識型注意監視機構を提案する。
次に、学習時間軸に沿ってノード分類とホップ認識注意係数という2つの学習タスクのバランスをとるためにシミュレーションアニーリング学習戦略を採用する。
その結果,提案したHop-aware Supervision Graph Attention Networks (HopGAT)モデルの有効性が示された。
特にタンパク質-タンパク質相互作用ネットワークにおいて、40%のラベル付きグラフでは、完全なラベル付きグラフと比較して、パフォーマンス損失は98.5%から94.6%までわずか3.9%である。
集中的な実験は、監視された注意係数と学習戦略の有効性を示す。
関連論文リスト
- Supervised Attention Using Homophily in Graph Neural Networks [26.77596449192451]
そこで本研究では,クラスラベルを共有するノード間の注目度を高めるための新しい手法を提案する。
提案手法をいくつかのノード分類データセット上で評価し,標準ベースラインモデルよりも高い性能を示す。
論文 参考訳(メタデータ) (2023-07-11T12:43:23Z) - State of the Art and Potentialities of Graph-level Learning [54.68482109186052]
グラフレベルの学習は、比較、回帰、分類など、多くのタスクに適用されている。
グラフの集合を学習する伝統的なアプローチは、サブストラクチャのような手作りの特徴に依存している。
ディープラーニングは、機能を自動的に抽出し、グラフを低次元表現に符号化することで、グラフレベルの学習をグラフの規模に適応させるのに役立っている。
論文 参考訳(メタデータ) (2023-01-14T09:15:49Z) - CGMN: A Contrastive Graph Matching Network for Self-Supervised Graph
Similarity Learning [65.1042892570989]
自己教師付きグラフ類似性学習のためのコントラストグラフマッチングネットワーク(CGMN)を提案する。
我々は,効率的なノード表現学習のために,クロスビューインタラクションとクロスグラフインタラクションという2つの戦略を用いる。
我々はノード表現をグラフ類似性計算のためのプール演算によりグラフレベル表現に変換する。
論文 参考訳(メタデータ) (2022-05-30T13:20:26Z) - How to Find Your Friendly Neighborhood: Graph Attention Design with
Self-Supervision [16.86132592140062]
ノイズグラフに対する自己教師付きグラフアテンションネットワーク(SuperGAT)を提案する。
我々は、エッジを予測するために、自己教師型タスクと互換性のある2つの注意形式を利用する。
エッジを符号化することで、SuperGATは、リンクされた隣人を識別する際に、より表現力のある注意を学習する。
論文 参考訳(メタデータ) (2022-04-11T05:45:09Z) - Edge but not Least: Cross-View Graph Pooling [76.71497833616024]
本稿では,重要なグラフ構造情報を活用するために,クロスビューグラフプーリング(Co-Pooling)手法を提案する。
クロスビュー相互作用、エッジビュープーリング、ノードビュープーリングにより、相互にシームレスに強化され、より情報的なグラフレベルの表現が学習される。
論文 参考訳(メタデータ) (2021-09-24T08:01:23Z) - Self-Supervised Graph Learning with Proximity-based Views and Channel
Contrast [4.761137180081091]
グラフニューラルネットワーク(GNN)は、近傍の集約をコアコンポーネントとして使用し、近接ノード間の機能を滑らかにする。
この問題に対処するため、我々は2つのグラフビューでグラフを強化し、ノードは最も類似した特徴や局所構造を持つものと直接リンクする。
生成したビューと元のグラフをまたいだ表現の一致を最大化する手法を提案する。
論文 参考訳(メタデータ) (2021-06-07T15:38:36Z) - Graph Decoupling Attention Markov Networks for Semi-supervised Graph
Node Classification [38.52231889960877]
グラフニューラルネットワーク(GNN)は、ノード分類などのグラフ学習タスクにおいてユビキタスである。
本稿では,グラフノードのラベル依存を考察し,ハードとソフトの両方の注意を学ぶための分離注意機構を提案する。
論文 参考訳(メタデータ) (2021-04-28T11:44:13Z) - Hop-Hop Relation-aware Graph Neural Networks [15.15806320256929]
我々は,同種および異種グラフの表現学習を統合するために,ホップホップ対応グラフニューラルネットワーク(HHR-GNN)を提案する。
HHR-GNNは、各ノードに対するパーソナライズされた受容領域を知識グラフ埋め込みを利用して学習し、中央ノードの表現間の関係スコアを異なるホップで学習する。
論文 参考訳(メタデータ) (2020-12-21T06:58:38Z) - Line Graph Neural Networks for Link Prediction [71.00689542259052]
実世界の多くのアプリケーションにおいて古典的なグラフ解析問題であるグラフリンク予測タスクについて検討する。
このフォーマリズムでは、リンク予測問題をグラフ分類タスクに変換する。
本稿では,線グラフをグラフ理論に用いて,根本的に異なる新しい経路を求めることを提案する。
特に、線グラフの各ノードは、元のグラフのユニークなエッジに対応するため、元のグラフのリンク予測問題は、グラフ分類タスクではなく、対応する線グラフのノード分類問題として等価に解決できる。
論文 参考訳(メタデータ) (2020-10-20T05:54:31Z) - Multi-hop Attention Graph Neural Network [70.21119504298078]
マルチホップアテンショングラフニューラルネットワーク(MAGNA)は、マルチホップコンテキスト情報を注目計算のすべての層に組み込む方法である。
MAGNAは各層における大規模構造情報を捕捉し,低域効果によりグラフデータからノイズの多い高周波情報を除去することを示す。
論文 参考訳(メタデータ) (2020-09-29T22:41:19Z) - Spectral Graph Attention Network with Fast Eigen-approximation [103.93113062682633]
スペクトルグラフ注意ネットワーク(SpGAT)は、重み付きフィルタとグラフウェーブレットベースに関する異なる周波数成分の表現を学習する。
固有分解による計算コストを削減するために,高速近似変種SpGAT-Chebyを提案する。
半教師付きノード分類タスクにおけるSpGATとSpGAT-Chebyの性能を徹底的に評価する。
論文 参考訳(メタデータ) (2020-03-16T21:49:34Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。