論文の概要: Contrastive Multi-View Representation Learning on Graphs
- arxiv url: http://arxiv.org/abs/2006.05582v1
- Date: Wed, 10 Jun 2020 00:49:15 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-23 04:22:20.040798
- Title: Contrastive Multi-View Representation Learning on Graphs
- Title(参考訳): グラフを用いた対比多視点表現学習
- Authors: Kaveh Hassani and Amir Hosein Khasahmadi
- Abstract要約: 本稿では,グラフの構造的ビューを対比することで,ノードとグラフレベルの表現を学習するための自己教師型アプローチを提案する。
我々は8ノード中8ノードの自己教師型学習とグラフ分類のベンチマークで、最先端の新たな結果を得る。
- 参考スコア(独自算出の注目度): 13.401746329218017
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We introduce a self-supervised approach for learning node and graph level
representations by contrasting structural views of graphs. We show that unlike
visual representation learning, increasing the number of views to more than two
or contrasting multi-scale encodings do not improve performance, and the best
performance is achieved by contrasting encodings from first-order neighbors and
a graph diffusion. We achieve new state-of-the-art results in self-supervised
learning on 8 out of 8 node and graph classification benchmarks under the
linear evaluation protocol. For example, on Cora (node) and Reddit-Binary
(graph) classification benchmarks, we achieve 86.8% and 84.5% accuracy, which
are 5.5% and 2.4% relative improvements over previous state-of-the-art. When
compared to supervised baselines, our approach outperforms them in 4 out of 8
benchmarks. Source code is released at: https://github.com/kavehhassani/mvgrl
- Abstract(参考訳): グラフの構造的ビューを対比することにより,ノードとグラフレベルの表現を学習するための自己教師型アプローチを導入する。
視覚表現学習とは異なり,2 以上のビュー数の増加やマルチスケールエンコーディングでは性能が向上せず,一階近傍からのエンコーディングとグラフ拡散を対比することにより,最高の性能が得られることを示す。
線形評価プロトコルを用いて,8ノード中8ノードの自己教師型学習とグラフ分類ベンチマークを新たに実現した。
例えば、cora (node) と reddit-binary (graph) の分類ベンチマークでは、86.8% と 84.5% の精度を達成しています。
教師付きベースラインと比較すると、我々のアプローチは8つのベンチマークのうち4つで優れています。
ソースコード: https://github.com/kavehhassani/mvgrl
関連論文リスト
- NeCo: Improving DINOv2's spatial representations in 19 GPU hours with Patch Neighbor Consistency [35.768260232640756]
NeCo: Patch Neighbor Consistencyは、学生モデルと教師モデルにまたがる、パッチレベルの近接一貫性を強制する新しいトレーニング損失である。
本手法は,DINOv2-Registersのような事前学習された表現の上に適用された微分可能なソート手法を用いて学習信号をブートストラップする。
この厳密な事前トレーニングは、単一のGPUで19時間しか必要とせず、さまざまなモデルやデータセットでパフォーマンスが向上する。
論文 参考訳(メタデータ) (2024-08-20T17:58:59Z) - SimMatchV2: Semi-Supervised Learning with Graph Consistency [53.31681712576555]
半教師付き学習アルゴリズムSimMatchV2を導入する。
グラフの観点からラベル付きデータとラベルなしデータの間の様々な一貫性の規則化を定式化する。
SimMatchV2は、複数の半教師付き学習ベンチマークで検証されている。
論文 参考訳(メタデータ) (2023-08-13T05:56:36Z) - CGMN: A Contrastive Graph Matching Network for Self-Supervised Graph
Similarity Learning [65.1042892570989]
自己教師付きグラフ類似性学習のためのコントラストグラフマッチングネットワーク(CGMN)を提案する。
我々は,効率的なノード表現学習のために,クロスビューインタラクションとクロスグラフインタラクションという2つの戦略を用いる。
我々はノード表現をグラフ類似性計算のためのプール演算によりグラフレベル表現に変換する。
論文 参考訳(メタデータ) (2022-05-30T13:20:26Z) - GraphCoCo: Graph Complementary Contrastive Learning [65.89743197355722]
グラフコントラスト学習(GCL)は、手作業によるアノテーションの監督なしに、グラフ表現学習(GRL)において有望な性能を示した。
本稿では,この課題に対処するため,グラフココというグラフ補完型コントラスト学習手法を提案する。
論文 参考訳(メタデータ) (2022-03-24T02:58:36Z) - Self-Supervised Graph Learning with Proximity-based Views and Channel
Contrast [4.761137180081091]
グラフニューラルネットワーク(GNN)は、近傍の集約をコアコンポーネントとして使用し、近接ノード間の機能を滑らかにする。
この問題に対処するため、我々は2つのグラフビューでグラフを強化し、ノードは最も類似した特徴や局所構造を持つものと直接リンクする。
生成したビューと元のグラフをまたいだ表現の一致を最大化する手法を提案する。
論文 参考訳(メタデータ) (2021-06-07T15:38:36Z) - With a Little Help from My Friends: Nearest-Neighbor Contrastive
Learning of Visual Representations [87.72779294717267]
対比損失で最も近い隣り合わせを正として使用すると、ImageNet分類でパフォーマンスが大幅に向上します。
提案手法が複雑なデータ拡張に依存しないことを実証的に証明する。
論文 参考訳(メタデータ) (2021-04-29T17:56:08Z) - Sequential Graph Convolutional Network for Active Learning [53.99104862192055]
逐次グラフ畳み込みネットワーク(GCN)を用いた新しいプールベースアクティブラーニングフレームワークを提案する。
少数のランダムなサンプル画像がシードラベル付き例であるので、グラフのパラメータを学習してラベル付きノードと非ラベル付きノードを区別する。
我々はGCNの特性を利用してラベル付けされたものと十分に異なる未ラベルの例を選択する。
論文 参考訳(メタデータ) (2020-06-18T00:55:10Z) - Heuristic Semi-Supervised Learning for Graph Generation Inspired by
Electoral College [80.67842220664231]
本稿では,新たなノードやエッジを自動的に拡張して,高密度サブグラフ内のラベル類似性を向上する,新しい前処理手法であるElectoral College(ELCO)を提案する。
テストされたすべての設定において、我々の手法はベースモデルの平均スコアを4.7ポイントの広いマージンで引き上げるとともに、常に最先端のモデルよりも優れています。
論文 参考訳(メタデータ) (2020-06-10T14:48:48Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。