論文の概要: Label-invariant Augmentation for Semi-Supervised Graph Classification
- arxiv url: http://arxiv.org/abs/2205.09802v1
- Date: Thu, 19 May 2022 18:44:02 GMT
- ステータス: 処理完了
- システム内更新日: 2022-05-23 13:16:14.559232
- Title: Label-invariant Augmentation for Semi-Supervised Graph Classification
- Title(参考訳): 半教師付きグラフ分類のためのラベル不変な拡張
- Authors: Han Yue, Chunhui Zhang, Chuxu Zhang, Hongfu Liu
- Abstract要約: 近年,コンピュータビジョン領域では,コントラッシブネスに基づく拡張が新たなクライマックスを引き起こしている。
画像とは異なり、グラフの性質を変えることなく合理的な拡張を設計することはより困難である。
この課題に対処するために,グラフ構造化データに対するラベル不変拡張を提案する。
- 参考スコア(独自算出の注目度): 32.591130704357184
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Recently, contrastiveness-based augmentation surges a new climax in the
computer vision domain, where some operations, including rotation, crop, and
flip, combined with dedicated algorithms, dramatically increase the model
generalization and robustness. Following this trend, some pioneering attempts
employ the similar idea to graph data. Nevertheless, unlike images, it is much
more difficult to design reasonable augmentations without changing the nature
of graphs. Although exciting, the current graph contrastive learning does not
achieve as promising performance as visual contrastive learning. We conjecture
the current performance of graph contrastive learning might be limited by the
violation of the label-invariant augmentation assumption. In light of this, we
propose a label-invariant augmentation for graph-structured data to address
this challenge. Different from the node/edge modification and subgraph
extraction, we conduct the augmentation in the representation space and
generate the augmented samples in the most difficult direction while keeping
the label of augmented data the same as the original samples. In the
semi-supervised scenario, we demonstrate our proposed method outperforms the
classical graph neural network based methods and recent graph contrastive
learning on eight benchmark graph-structured data, followed by several in-depth
experiments to further explore the label-invariant augmentation in several
aspects.
- Abstract(参考訳): 近年、コントラストに基づく拡張は、ローテーション、クロップ、フリップなどいくつかの操作と専用アルゴリズムを組み合わせることで、モデルの一般化とロバスト性が劇的に向上するコンピュータビジョン領域の新たなクライマックスを飛躍的に高めている。
この傾向に従い、いくつかの先駆的な試みはグラフデータと同様のアイデアを採用している。
しかし、画像とは異なり、グラフの性質を変えることなく、合理的な拡張を設計することはより困難である。
現在のグラフコントラスト学習は、エキサイティングではあるが、視覚コントラスト学習ほど有望なパフォーマンスを達成できない。
グラフコントラスト学習の現在の性能はラベル不変増補仮説の違反によって制限されるかもしれないと推測する。
この課題に対処するために,グラフ構造化データに対するラベル不変拡張を提案する。
ノード/エッジの修正やサブグラフの抽出とは異なり、表現空間における拡張を行い、拡張データのラベルを元のサンプルと同じ状態に保ちながら、最も難しい方向に拡張されたサンプルを生成する。
半教師付きシナリオにおいて,提案手法は,従来のグラフニューラルネットワークの手法と最近のグラフコントラスト学習を8つのベンチマークグラフ構造化データで比較し,さらに,ラベル不変の拡張について,より深い実験を行った。
関連論文リスト
- Uncovering Capabilities of Model Pruning in Graph Contrastive Learning [0.0]
我々は、拡張ビューではなく、異なるモデルバージョンを対比することで、グラフのコントラスト学習の問題を再構築する。
教師なしおよび転送学習によるグラフ分類に関する様々なベンチマークにおいて,本手法を広範囲に検証する。
論文 参考訳(メタデータ) (2024-10-27T07:09:31Z) - Contrastive General Graph Matching with Adaptive Augmentation Sampling [5.3459881796368505]
グラフマッチング(GCGM)のための新しいグラフ中心コントラストフレームワークを提案する。
GCGMは、コントラスト学習のための膨大なグラフ拡張を、副次的な情報を必要としない形で実現している。
当社のGCGMは、さまざまなデータセットにわたる最先端の自己管理手法を超越しています。
論文 参考訳(メタデータ) (2024-06-25T01:08:03Z) - Through the Dual-Prism: A Spectral Perspective on Graph Data
Augmentation for Graph Classification [71.36575018271405]
本稿では,DP-NoiseとDP-Maskを組み合わせたDual-Prism(DP)拡張手法を提案する。
低周波固有値の変動を保ちながら、拡張グラフを生成する際に、臨界特性を大規模に保存できることが判明した。
論文 参考訳(メタデータ) (2024-01-18T12:58:53Z) - Spectral Augmentations for Graph Contrastive Learning [50.149996923976836]
コントラスト学習は、監督の有無にかかわらず、表現を学習するための第一の方法として現れてきた。
近年の研究では、グラフ表現学習における事前学習の有用性が示されている。
本稿では,グラフの対照的な目的に対する拡張を構築する際に,候補のバンクを提供するためのグラフ変換操作を提案する。
論文 参考訳(メタデータ) (2023-02-06T16:26:29Z) - Coarse-to-Fine Contrastive Learning on Graphs [38.41992365090377]
ノード表現を自己管理的に学習するために、さまざまなグラフ拡張戦略が採用されている。
我々は,異なるノード間の識別情報を確実に維持するために,自己評価パラダイムを導入する。
各種ベンチマークデータセットの実験結果から,提案アルゴリズムの有効性を検証した。
論文 参考訳(メタデータ) (2022-12-13T08:17:20Z) - Graph Contrastive Learning with Implicit Augmentations [36.57536688367965]
Inlicit Graph Contrastive Learning (iGCL)は、グラフトポロジ構造を再構築することにより、変分グラフオートエンコーダから学習した潜時空間の増大を利用する。
グラフレベルとノードレベルの両方のタスクに対する実験結果から,提案手法が最先端の性能を実現することを示す。
論文 参考訳(メタデータ) (2022-11-07T17:34:07Z) - ARIEL: Adversarial Graph Contrastive Learning [51.14695794459399]
ARIELは、ノードレベルとグラフレベルの両方の分類タスクにおいて、現在のグラフコントラスト学習法よりも一貫して優れている。
ARIELは敵の攻撃に対してより堅牢である。
論文 参考訳(メタデータ) (2022-08-15T01:24:42Z) - Similarity-aware Positive Instance Sampling for Graph Contrastive
Pre-training [82.68805025636165]
トレーニングセット内の既存グラフから直接正のグラフインスタンスを選択することを提案する。
私たちの選択は、特定のドメイン固有のペアワイズ類似度測定に基づいています。
さらに,ノードを動的にマスキングしてグラフ上に均等に分配する適応ノードレベルの事前学習手法を開発した。
論文 参考訳(メタデータ) (2022-06-23T20:12:51Z) - Adversarial Graph Contrastive Learning with Information Regularization [51.14695794459399]
コントラスト学習はグラフ表現学習において有効な方法である。
グラフ上のデータ拡張は、はるかに直感的ではなく、高品質のコントラスト的なサンプルを提供するのがずっと難しい。
逆グラフ比較学習(Adversarial Graph Contrastive Learning, ARIEL)を提案する。
さまざまな実世界のデータセット上でのノード分類タスクにおいて、現在のグラフのコントラスト学習方法よりも一貫して優れています。
論文 参考訳(メタデータ) (2022-02-14T05:54:48Z) - Graph Contrastive Learning with Augmentations [109.23158429991298]
グラフデータの教師なし表現を学習するためのグラフコントラスト学習(GraphCL)フレームワークを提案する。
我々のフレームワークは、最先端の手法と比較して、類似またはより良い一般化可能性、転送可能性、堅牢性のグラフ表現を作成できることを示す。
論文 参考訳(メタデータ) (2020-10-22T20:13:43Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。