論文の概要: Graph Barlow Twins: A self-supervised representation learning framework
for graphs
- arxiv url: http://arxiv.org/abs/2106.02466v1
- Date: Fri, 4 Jun 2021 13:10:51 GMT
- ステータス: 処理完了
- システム内更新日: 2021-06-07 14:57:27.203852
- Title: Graph Barlow Twins: A self-supervised representation learning framework
for graphs
- Title(参考訳): Graph Barlow Twins: グラフのための自己教師型表現学習フレームワーク
- Authors: Piotr Bielak, Tomasz Kajdanowicz, Nitesh V. Chawla
- Abstract要約: Graph Barlow Twinsは、自己教師付きグラフ表現学習のためのフレームワークである。
非対称ニューラルネットワークアーキテクチャに依存しない。
最先端の自己教師付きグラフ表現学習法であるBGRLと競合する結果を得る。
- 参考スコア(独自算出の注目度): 22.774159996012276
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The self-supervised learning (SSL) paradigm is an essential exploration area,
which tries to eliminate the need for expensive data labeling. Despite the
great success of SSL methods in computer vision and natural language
processing, most of them employ contrastive learning objectives that require
negative samples, which are hard to define. This becomes even more challenging
in the case of graphs and is a bottleneck for achieving robust representations.
To overcome such limitations, we propose a framework for self-supervised graph
representation learning -- Graph Barlow Twins, which utilizes a
cross-correlation-based loss function instead of negative samples. Moreover, it
does not rely on non-symmetric neural network architectures -- in contrast to
state-of-the-art self-supervised graph representation learning method BGRL. We
show that our method achieves as competitive results as BGRL, best
self-supervised methods, and fully supervised ones while requiring
substantially fewer hyperparameters and converging in an order of magnitude
training steps earlier.
- Abstract(参考訳): 自己教師型学習(SSL)パラダイムは,高価なデータラベリングの必要性を排除すべく,重要な調査領域である。
コンピュータビジョンや自然言語処理においてSSLメソッドが大きな成功を収めたにもかかわらず、そのほとんどは負のサンプルを必要とする対照的な学習目標を採用しており、定義は困難である。
これはグラフの場合さらに難しくなり、堅牢な表現を達成するためのボトルネックとなる。
このような制限を克服するために、負のサンプルの代わりに相互相関に基づく損失関数を利用するグラフバーロウツインズ(Graph Barlow Twins)を自己教師付きグラフ表現学習のためのフレームワークを提案する。
さらに、非対称ニューラルネットワークアーキテクチャに依存しない -- 最先端の自己教師付きグラフ表現学習法bgrlとは対照的である。
提案手法は,bgrl,最良自己監督法,完全監督法と同等の競争結果を達成でき,より早い段階では超パラメータと収束をかなり少なくできることを示した。
関連論文リスト
- Disentangled Generative Graph Representation Learning [51.59824683232925]
本稿では,自己教師型学習フレームワークであるDiGGR(Disentangled Generative Graph Representation Learning)を紹介する。
潜伏要因を学習し、それをグラフマスクモデリングのガイドとして活用することを目的としている。
2つの異なるグラフ学習タスクのための11の公開データセットの実験は、DiGGRが従来よりも一貫して多くの自己教師付きメソッドを上回っていることを示している。
論文 参考訳(メタデータ) (2024-08-24T05:13:02Z) - LocalGCL: Local-aware Contrastive Learning for Graphs [17.04219759259025]
グラフ表現学習者として、アンダーラインローカル認識アンダーライングラフアンダーライン比較アンダーラインラーニング(textbfmethnametrim)を提案する。
実験は、最先端の手法に対するミートネームの優位性を検証し、包括的なグラフ表現学習者としての可能性を実証した。
論文 参考訳(メタデータ) (2024-02-27T09:23:54Z) - Rethinking and Simplifying Bootstrapped Graph Latents [48.76934123429186]
グラフ・コントラッシブ・ラーニング(GCL)はグラフ自己教師型ラーニングにおいて代表的なパラダイムとして登場した。
SGCLは2つの繰り返しの出力を正のペアとして利用するシンプルで効果的なGCLフレームワークである。
我々は,SGCLがより少ないパラメータ,少ない時間と空間コスト,およびかなりの収束速度で競合性能を達成可能であることを示す。
論文 参考訳(メタデータ) (2023-12-05T09:49:50Z) - A Graph is Worth 1-bit Spikes: When Graph Contrastive Learning Meets
Spiking Neural Networks [35.35462459134551]
SpikeGCLは、グラフのバイナライズされた1ビット表現を学ぶための新しいフレームワークである。
SpikeGCLが完全精度に匹敵するものであることを示すための理論的保証を提供する。
論文 参考訳(メタデータ) (2023-05-30T16:03:11Z) - Localized Contrastive Learning on Graphs [110.54606263711385]
局所グラフコントラスト学習(Local-GCL)という,シンプルだが効果的なコントラストモデルを導入する。
その単純さにもかかわらず、Local-GCLは、様々なスケールと特性を持つグラフ上の自己教師付きノード表現学習タスクにおいて、非常に競争力のある性能を達成する。
論文 参考訳(メタデータ) (2022-12-08T23:36:00Z) - Let Invariant Rationale Discovery Inspire Graph Contrastive Learning [98.10268114789775]
ハイパフォーマンスな拡張は、インスタンス識別に関するアンカーグラフの健全な意味を保存すべきである。
新たなフレームワーク Rationale-aware Graph Contrastive Learning (RGCL) を提案する。
RGCLは有理数生成器を使用して、グラフのインスタンス識別に関する健全な特徴を論理として明らかにし、対照的な学習のための有理数認識ビューを生成する。
論文 参考訳(メタデータ) (2022-06-16T01:28:40Z) - Decoupled Self-supervised Learning for Non-Homophilous Graphs [36.87585427004317]
グラフニューラルネットワークのための非結合型自己教師型学習フレームワークを開発した。
DSSLは、意味構造の潜在変数モデリングからノードとリンクの生成プロセスを模倣する。
当社のフレームワークはエンコーダに非依存であり,前処理による拡張は不要である。
論文 参考訳(メタデータ) (2022-06-07T21:58:29Z) - Learning Robust Representation through Graph Adversarial Contrastive
Learning [6.332560610460623]
既存の研究では、グラフニューラルネットワーク(GNN)によって生成されたノード表現が、敵の攻撃に対して脆弱であることが示されている。
本稿では,グラフ自己教師型学習に対数拡張を導入することにより,新しいグラフ適応型コントラスト学習フレームワーク(GraphACL)を提案する。
論文 参考訳(メタデータ) (2022-01-31T07:07:51Z) - Towards Unsupervised Deep Graph Structure Learning [67.58720734177325]
本稿では,学習したグラフトポロジを外部ガイダンスなしでデータ自身で最適化する,教師なしグラフ構造学習パラダイムを提案する。
具体的には、元のデータから"アンカーグラフ"として学習目標を生成し、対照的な損失を用いてアンカーグラフと学習グラフとの一致を最大化する。
論文 参考訳(メタデータ) (2022-01-17T11:57:29Z) - Distributionally Robust Semi-Supervised Learning Over Graphs [68.29280230284712]
グラフ構造化データに対する半教師付き学習(SSL)は、多くのネットワークサイエンスアプリケーションに現れる。
グラフ上の学習を効率的に管理するために,近年,グラフニューラルネットワーク(GNN)の変種が開発されている。
実際に成功したにも拘わらず、既存の手法のほとんどは、不確実な結節属性を持つグラフを扱うことができない。
ノイズ測定によって得られたデータに関連する分布の不確実性によっても問題が発生する。
分散ロバストな学習フレームワークを開発し,摂動に対する定量的ロバスト性を示すモデルを訓練する。
論文 参考訳(メタデータ) (2021-10-20T14:23:54Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。