論文の概要: Label Contrastive Coding based Graph Neural Network for Graph
Classification
- arxiv url: http://arxiv.org/abs/2101.05486v1
- Date: Thu, 14 Jan 2021 07:45:55 GMT
- ステータス: 処理完了
- システム内更新日: 2021-03-29 00:57:46.884563
- Title: Label Contrastive Coding based Graph Neural Network for Graph
Classification
- Title(参考訳): ラベルコントラスト符号化に基づくグラフ分類のためのグラフニューラルネットワーク
- Authors: Yuxiang Ren, Jiyang Bai, and Jiawei Zhang
- Abstract要約: ラベル情報をより有効かつ包括的に活用するための,新しいラベルコントラスト符号化に基づくグラフニューラルネットワーク(LCGNN)を提案する。
対照的な学習を促進するため、LCGNNは動的ラベルメモリバンクとモーメント更新エンコーダを導入した。
8つのベンチマークグラフデータセットによる評価は、LCGNNが最先端のグラフ分類モデルを上回ることを証明しています。
- 参考スコア(独自算出の注目度): 9.80278570179994
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Graph classification is a critical research problem in many applications from
different domains. In order to learn a graph classification model, the most
widely used supervision component is an output layer together with
classification loss (e.g.,cross-entropy loss together with softmax or margin
loss). In fact, the discriminative information among instances are more
fine-grained, which can benefit graph classification tasks. In this paper, we
propose the novel Label Contrastive Coding based Graph Neural Network (LCGNN)
to utilize label information more effectively and comprehensively. LCGNN still
uses the classification loss to ensure the discriminability of classes.
Meanwhile, LCGNN leverages the proposed Label Contrastive Loss derived from
self-supervised learning to encourage instance-level intra-class compactness
and inter-class separability. To power the contrastive learning, LCGNN
introduces a dynamic label memory bank and a momentum updated encoder. Our
extensive evaluations with eight benchmark graph datasets demonstrate that
LCGNN can outperform state-of-the-art graph classification models. Experimental
results also verify that LCGNN can achieve competitive performance with less
training data because LCGNN exploits label information comprehensively.
- Abstract(参考訳): グラフ分類は、異なる領域の多くのアプリケーションにおいて重要な研究課題である。
グラフ分類モデルを学習するために、最も広く使用される監視コンポーネントは、分類損失(例えば、ソフトマックスやマージン損失と共に、クロスエントロピー損失)と共に出力層である。
実際、インスタンス間の識別情報はよりきめ細かなものであり、グラフ分類のタスクに役立ちます。
本稿では,ラベル情報をより効果的かつ包括的に活用するための,ラベルコントラスト符号化に基づくグラフニューラルネットワーク(LCGNN)を提案する。
LCGNNは依然としてクラス識別性を確保するために分類損失を使用している。
一方、LCGNNは自己教師付き学習から派生したラベルコントラスト損失を利用して、インスタンスレベルのクラス内コンパクト性とクラス間分離性を促進する。
対照的な学習を促進するため、LCGNNは動的ラベルメモリバンクとモーメント更新エンコーダを導入した。
8つのベンチマークグラフデータセットによる広範な評価は、LCGNNが最先端のグラフ分類モデルより優れていることを示している。
また,LCGNNはラベル情報を総合的に活用するため,トレーニングデータが少ないため,LCGNNの競争性能が向上することを確認した。
関連論文リスト
- Deep Contrastive Graph Learning with Clustering-Oriented Guidance [61.103996105756394]
グラフ畳み込みネットワーク(GCN)は、グラフベースのクラスタリングを改善する上で大きな可能性を秘めている。
モデルはGCNを適用するために初期グラフを事前に推定する。
一般的なデータクラスタリングには,Deep Contrastive Graph Learning (DCGL)モデルが提案されている。
論文 参考訳(メタデータ) (2024-02-25T07:03:37Z) - Class-Balanced and Reinforced Active Learning on Graphs [13.239043161351482]
グラフニューラルネットワーク(GNN)は、ノード分類、リンク予測、グラフ分類など、さまざまなアプリケーションで大きな成功を収めている。
GNNのアクティブラーニングは、ラベルのないデータから貴重なサンプルを照会して、GNNのパフォーマンスを低コストで最大化することを目的としている。
GNNにおける強化能動学習のための既存のアルゴリズムは、特に高度に歪んだクラスシナリオにおいて、高度に不均衡なクラス分布をもたらす可能性がある。
我々は、GNNのための新しいクラスバランスと強化されたアクティブラーニングフレームワーク、すなわちGCBRを提案し、クラスバランスと情報ノードを取得するための最適なポリシーを学習する。
論文 参考訳(メタデータ) (2024-02-15T16:37:14Z) - GNNEvaluator: Evaluating GNN Performance On Unseen Graphs Without Labels [81.93520935479984]
本稿では,ラベル付きおよび観測されたグラフに基づいて学習した特定のGNNモデルの性能を評価することを目的とした,新しい問題であるGNNモデル評価について検討する。
本稿では,(1) DiscGraph セット構築と(2) GNNEvaluator トレーニングと推論を含む2段階の GNN モデル評価フレームワークを提案する。
DiscGraphセットからの効果的なトレーニング監督の下で、GNNEvaluatorは、評価対象であるGNNモデルのノード分類精度を正確に推定することを学ぶ。
論文 参考訳(メタデータ) (2023-10-23T05:51:59Z) - A Class-Aware Representation Refinement Framework for Graph Classification [8.998543739618077]
グラフ分類作業のためのクラス認識表現rEfinement (CARE) フレームワークを提案する。
CAREは単純だが強力なクラス表現を計算し、グラフ表現の学習をより良いクラス分離性へと導くためにそれらを注入する。
9つのベンチマークデータセット上の11のよく知られたGNNバックボーンを用いた実験は、そのGNNよりもCAREの優位性と有効性を検証する。
論文 参考訳(メタデータ) (2022-09-02T10:18:33Z) - Towards Unsupervised Deep Graph Structure Learning [67.58720734177325]
本稿では,学習したグラフトポロジを外部ガイダンスなしでデータ自身で最適化する,教師なしグラフ構造学習パラダイムを提案する。
具体的には、元のデータから"アンカーグラフ"として学習目標を生成し、対照的な損失を用いてアンカーグラフと学習グラフとの一致を最大化する。
論文 参考訳(メタデータ) (2022-01-17T11:57:29Z) - Adversarial Graph Augmentation to Improve Graph Contrastive Learning [21.54343383921459]
本稿では,GNNがトレーニング中に冗長な情報を捕捉することを避けるために,AD-GCL(adversarial-GCL)と呼ばれる新しい原理を提案する。
我々は、AD-GCLを最先端のGCL法と比較し、教師なしで最大$14%、転送で$6%、半教師なしの学習環境で$3%の性能向上を達成した。
論文 参考訳(メタデータ) (2021-06-10T15:34:26Z) - Unified Robust Training for Graph NeuralNetworks against Label Noise [12.014301020294154]
半監督設定でノイズの多いラベルをグラフ上で学習するための新しいフレームワークである UnionNET を提案します。
提案手法は,GNNを頑健に訓練し,ラベル修正を同時に行うための統一的なソリューションを提供する。
論文 参考訳(メタデータ) (2021-03-05T01:17:04Z) - Delving Deep into Label Smoothing [112.24527926373084]
ディープニューラルネットワーク(DNN)の効果的な正規化ツールとしてのラベル平滑化
対象カテゴリのモデル予測の統計に基づいてソフトラベルを生成するオンラインラベル平滑化(OLS)戦略を提案する。
論文 参考訳(メタデータ) (2020-11-25T08:03:11Z) - Knowledge-Guided Multi-Label Few-Shot Learning for General Image
Recognition [75.44233392355711]
KGGRフレームワークは、ディープニューラルネットワークと統計ラベル相関の事前知識を利用する。
まず、統計ラベルの共起に基づいて異なるラベルを相関させる構造化知識グラフを構築する。
次に、ラベルセマンティクスを導入し、学習セマンティクス固有の特徴をガイドする。
グラフノードの相互作用を探索するためにグラフ伝搬ネットワークを利用する。
論文 参考訳(メタデータ) (2020-09-20T15:05:29Z) - Contrastive and Generative Graph Convolutional Networks for Graph-based
Semi-Supervised Learning [64.98816284854067]
グラフベースのSemi-Supervised Learning (SSL)は、少数のラベル付きデータのラベルをグラフ経由で残りの巨大なラベル付きデータに転送することを目的としている。
本稿では,データ類似性とグラフ構造を両立させ,監視信号の強化を図るため,新しいGCNベースのSSLアルゴリズムを提案する。
論文 参考訳(メタデータ) (2020-09-15T13:59:28Z) - Few-Shot Learning on Graphs via Super-Classes based on Graph Spectral
Measures [14.932318540666545]
グラフニューラルネットワーク (GNN) におけるショットグラフ分類の問題について, 限定ラベル付きグラフの場合, 未確認のクラスを認識するために検討した。
グラフ正規化ラプラシアンのスペクトルに基づいて確率測度を各グラフに割り当てる手法を提案する。
論文 参考訳(メタデータ) (2020-02-27T17:11:14Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。