論文の概要: Contrastive Learning under Heterophily
- arxiv url: http://arxiv.org/abs/2303.06344v1
- Date: Sat, 11 Mar 2023 08:32:39 GMT
- ステータス: 処理完了
- システム内更新日: 2023-03-14 19:39:24.066548
- Title: Contrastive Learning under Heterophily
- Title(参考訳): 異所性学習におけるコントラスト学習
- Authors: Wenhan Yang, Baharan Mirzasoleiman
- Abstract要約: グラフニューラルネットワークは、タスク固有のノードラベルが利用できる場合にノード表現を学習するための強力なツールである。
コントラスト学習(CL)は、自己指導的な方法で表現を学ぶのに特に人気がある。
本研究では,ヘテロフィリーの下でノード表現を学習するための最初のグラフCL法HLCLを提案する。
- 参考スコア(独自算出の注目度): 56.68709470137506
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Graph Neural Networks are powerful tools for learning node representations
when task-specific node labels are available. However, obtaining labels for
graphs is expensive in many applications. This is particularly the case for
large graphs. To address this, there has been a body of work to learn node
representations in a self-supervised manner without labels. Contrastive
learning (CL), has been particularly popular to learn representations in a
self-supervised manner. In general, CL methods work by maximizing the
similarity between representations of augmented views of the same example, and
minimizing the similarity between augmented views of different examples.
However, existing graph CL methods cannot learn high-quality representations
under heterophily, where connected nodes tend to belong to different classes.
This is because under heterophily, augmentations of the same example may not be
similar to each other. In this work, we address the above problem by proposing
the first graph CL method, HLCL, for learning node representations, under
heterophily. HLCL uses a high-pass and a low-pass graph filter to generate
different views of the same node. Then, it contrasts the two filtered views to
learn the final node representations. Effectively, the high-pass filter
captures the dissimilarity between nodes in a neighborhood and the low-pass
filter captures the similarity between neighboring nodes.Contrasting the two
filtered views allows HLCL to learn rich node representations for graphs, under
heterophily and homophily.Empirically, HLCL outperforms state-of-the-art graph
CL methods on benchmark heterophily datasets and large-scale real-world
datasets by up to 10%.
- Abstract(参考訳): グラフニューラルネットワークは、タスク固有のノードラベルが利用できる場合にノード表現を学習するための強力なツールである。
しかし、グラフのラベルを取得することは多くのアプリケーションで高価である。
これは特に大きなグラフの場合である。
これを解決するために,ラベルなしでノード表現を自己教師付きで学習する作業が数多く行われている。
コントラスト学習(CL)は、自己指導的な方法で表現を学ぶのに特に人気がある。
一般に、CL法は、同じ例の強化ビューの表現間の類似度を最大化し、異なる例の強化ビュー間の類似度を最小化する。
しかし、既存のグラフCL法では、連結ノードが異なるクラスに属する傾向があるヘテロフィリーの下で高品質な表現を学べない。
これは、ヘテロフィリーの下では、同じ例の増分は互いに似ていないかもしれないためである。
本稿では,ノード表現学習のための最初のグラフcl法であるhlclを提案することで,上記の問題に対処する。
HLCLは、同じノードの異なるビューを生成するために、ハイパスとローパスグラフフィルタを使用する。
そして、最終的なノード表現を学ぶために、2つのフィルタされたビューを対比する。
有効に、ハイパスフィルタは近隣のノード間の相似性をキャプチャし、ローパスフィルタは隣のノード間の類似性をキャプチャするが、2つのフィルタされたビューとは対照的に、HLCLはグラフのリッチなノード表現をヘテロフィリーでホモフィリーに学習することができる。
関連論文リスト
- Homophily-Related: Adaptive Hybrid Graph Filter for Multi-View Graph
Clustering [29.17784041837907]
マルチビューグラフクラスタリング(AHGFC)のための適応ハイブリッドグラフフィルタを提案する。
AHGFCはグラフ結合集約行列に基づいてノード埋め込みを学習する。
実験結果から,同好性グラフと異好性グラフを含む6つのデータセットに対して,提案モデルの有効性が示された。
論文 参考訳(メタデータ) (2024-01-05T07:27:29Z) - Simple and Asymmetric Graph Contrastive Learning without Augmentations [39.301072710063636]
グラフのための非対称コントラスト学習(GraphACL)は実装が容易であり、グラフ拡張やホモフィリー仮定に依存しない。
実験結果から, 単純グラフACLは, ホモ親和性グラフとヘテロ親和性グラフの対比学習法と自己教師学習法を著しく上回ることがわかった。
論文 参考訳(メタデータ) (2023-10-29T03:14:20Z) - HomoGCL: Rethinking Homophily in Graph Contrastive Learning [64.85392028383164]
HomoGCL はモデルに依存しないフレームワークで、近隣のノードに固有の意味を持つ正の集合を拡大する。
我々は、HomoGCLが6つの公開データセットにまたがって複数の最先端結果をもたらすことを示す。
論文 参考訳(メタデータ) (2023-06-16T04:06:52Z) - Beyond Homophily: Reconstructing Structure for Graph-agnostic Clustering [15.764819403555512]
グラフを好適なGNNモデルが見つかる前に、まずホモ親和性あるいはヘテロ親和性として識別することは不可能である。
本稿では,グラフ再構成,混合フィルタ,二重グラフクラスタリングネットワークという3つの重要な要素を含むグラフクラスタリング手法を提案する。
我々の手法は異種グラフ上で他者を支配している。
論文 参考訳(メタデータ) (2023-05-03T01:49:01Z) - Single-Pass Contrastive Learning Can Work for Both Homophilic and
Heterophilic Graph [60.28340453547902]
グラフコントラッシブ・ラーニング(GCL)技術は通常、コントラッシブ・ロスを構築するために単一のインスタンスに対して2つのフォワードパスを必要とする。
既存のGCLアプローチは、強力なパフォーマンス保証を提供していない。
我々はSingle-Pass Graph Contrastive Learning法(SP-GCL)を実装した。
経験的に、SP-GCLが学んだ機能は、計算オーバーヘッドを著しく少なくして、既存の強いベースラインにマッチまたは性能を向上することができる。
論文 参考訳(メタデータ) (2022-11-20T07:18:56Z) - Learning Optimal Graph Filters for Clustering of Attributed Graphs [20.810096547938166]
多くの現実世界のシステムは、システム内の異なるエンティティがノードによって表現され、エッジによって相互作用するグラフとして表現することができる。
グラフィカルな構造を持つ大規模なデータセットを研究する上で重要なタスクはグラフクラスタリングである。
本稿では,FIR(Finite Impulse Response)およびARMA(Autoregressive moving Average)グラフフィルタのパラメータをクラスタリングに最適化したグラフ信号処理手法を提案する。
論文 参考訳(メタデータ) (2022-11-09T01:49:23Z) - Geometry Contrastive Learning on Heterogeneous Graphs [50.58523799455101]
本稿では,幾何学コントラスト学習(Geometry Contrastive Learning, GCL)と呼ばれる,新しい自己指導型学習手法を提案する。
GCLはユークリッドと双曲的な視点からヘテロジニアスグラフを同時に見ることができ、リッチな意味論と複雑な構造をモデル化する能力の強い融合を目指している。
4つのベンチマークデータセットの大規模な実験は、提案手法が強いベースラインよりも優れていることを示している。
論文 参考訳(メタデータ) (2022-06-25T03:54:53Z) - Edge but not Least: Cross-View Graph Pooling [76.71497833616024]
本稿では,重要なグラフ構造情報を活用するために,クロスビューグラフプーリング(Co-Pooling)手法を提案する。
クロスビュー相互作用、エッジビュープーリング、ノードビュープーリングにより、相互にシームレスに強化され、より情報的なグラフレベルの表現が学習される。
論文 参考訳(メタデータ) (2021-09-24T08:01:23Z) - Graph Pooling with Node Proximity for Hierarchical Representation
Learning [80.62181998314547]
本稿では,ノード近接を利用したグラフプーリング手法を提案し,そのマルチホップトポロジを用いたグラフデータの階層的表現学習を改善する。
その結果,提案したグラフプーリング戦略は,公開グラフ分類ベンチマークデータセットの集合において,最先端のパフォーマンスを達成できることが示唆された。
論文 参考訳(メタデータ) (2020-06-19T13:09:44Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。