論文の概要: Beyond Smoothing: Unsupervised Graph Representation Learning with Edge
Heterophily Discriminating
- arxiv url: http://arxiv.org/abs/2211.14065v1
- Date: Fri, 25 Nov 2022 12:39:41 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-28 18:43:56.587043
- Title: Beyond Smoothing: Unsupervised Graph Representation Learning with Edge
Heterophily Discriminating
- Title(参考訳): beyond smoothing:edge heterophily discriminatingを用いた教師なしグラフ表現学習
- Authors: Yixin Liu, Yizhen Zheng, Daokun Zhang, Vincent CS Lee, Shirui Pan
- Abstract要約: We propose a novel unsupervised Graph Representation learning method with Edge hEterophily discrimina Ting (GREET)。
GREETはホモフィリックエッジとヘテロフィリックエッジを識別し活用することで表現を学習する。
GRETの優位性を示すため,14のベンチマークデータセットと複数の学習シナリオについて広範な実験を行った。
- 参考スコア(独自算出の注目度): 40.916070587912785
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Unsupervised graph representation learning (UGRL) has drawn increasing
research attention and achieved promising results in several graph analytic
tasks. Relying on the homophily assumption, existing UGRL methods tend to
smooth the learned node representations along all edges, ignoring the existence
of heterophilic edges that connect nodes with distinct attributes. As a result,
current methods are hard to generalize to heterophilic graphs where dissimilar
nodes are widely connected, and also vulnerable to adversarial attacks. To
address this issue, we propose a novel unsupervised Graph Representation
learning method with Edge hEterophily discriminaTing (GREET) which learns
representations by discriminating and leveraging homophilic edges and
heterophilic edges. To distinguish two types of edges, we build an edge
discriminator that infers edge homophily/heterophily from feature and structure
information. We train the edge discriminator in an unsupervised way through
minimizing the crafted pivot-anchored ranking loss, with randomly sampled node
pairs acting as pivots. Node representations are learned through contrasting
the dual-channel encodings obtained from the discriminated homophilic and
heterophilic edges. With an effective interplaying scheme, edge discriminating
and representation learning can mutually boost each other during the training
phase. We conducted extensive experiments on 14 benchmark datasets and multiple
learning scenarios to demonstrate the superiority of GREET.
- Abstract(参考訳): 教師なしグラフ表現学習(UGRL)は研究の注目を集め、いくつかのグラフ解析タスクにおいて有望な結果を得た。
ホモフィリーな仮定に基づいて、既存のUGRL法は学習したノード表現を全てのエッジに沿って滑らかにし、異なる属性を持つノードを接続するヘテロ親和性のあるエッジの存在を無視する傾向にある。
その結果、現在の手法は異種ノードが広く接続されている異種グラフに一般化することは困難であり、また敵攻撃にも脆弱である。
この問題に対処するために,同種エッジと異種エッジを識別・活用して表現を学習するEdge hEterophily discriminaTing (GREET) を用いた教師なしグラフ表現学習手法を提案する。
2種類のエッジを区別するために、特徴情報と構造情報からエッジをホモフィリ/ヘテロフィリに推論するエッジ判別器を構築する。
我々は,ランダムにサンプリングされたノード対がピボットとして振る舞うことにより,手作りのピボットアンチョードランキングロスを最小化し,教師なしの方法でエッジ判別子を訓練する。
ノード表現は、識別されたホモ親和性およびヘテロ親和性エッジから得られる二重チャネルエンコーディングと対比することによって学習される。
効果的な相互作用方式により、エッジ識別と表現学習は、トレーニングフェーズ中に相互に増強することができる。
GREETの優位性を実証するために、14のベンチマークデータセットと複数の学習シナリオについて広範な実験を行った。
関連論文リスト
- When Heterophily Meets Heterogeneous Graphs: Latent Graphs Guided Unsupervised Representation Learning [6.2167203720326025]
非教師付きヘテロジニアスグラフ表現学習(UHGRL)は,ラベルのない実用的なグラフを扱うことの重要性から注目されている。
我々はセマンティックなヘテロフィリーを定義し、この問題に対処するためにLatGRL(Latent Graphs Guided Unsupervised Representation Learning)と呼ばれる革新的なフレームワークを提案する。
論文 参考訳(メタデータ) (2024-09-01T10:25:06Z) - Bootstrap Latents of Nodes and Neighbors for Graph Self-Supervised Learning [27.278097015083343]
対照的な学習は、モデルの崩壊を防ぎ、差別的な表現を学ぶために負のサンプルを必要とする。
我々は、アンカーノードに対する隣人の支持率を予測するために、クロスアテンションモジュールを導入する。
本手法は, 負の正試料と雑音の正試料とのクラス衝突を緩和し, クラス内コンパクト度を同時に向上する。
論文 参考訳(メタデータ) (2024-08-09T14:17:52Z) - Heterophilous Distribution Propagation for Graph Neural Networks [23.897535976924722]
グラフニューラルネットワークのための異種分布伝播(HDP)を提案する。
すべての近隣から情報を集約する代わりに、HDPは隣人をホモ親和性および不テロ親和性の部分に適応的に分離する。
我々は、異なるレベルのホモフィリーを持つ9つのベンチマークデータセットに対して広範な実験を行う。
論文 参考訳(メタデータ) (2024-05-31T06:40:56Z) - Heterophily-Aware Graph Attention Network [42.640057865981156]
グラフニューラルネットワーク(GNN)はグラフ表現学習において顕著な成功を収めている。
既存のヘテロフィル性GNNは、各エッジのヘテロフィリのモデリングを無視する傾向にあり、これはヘテロフィリ問題に取り組む上でも不可欠である。
本稿では,局所分布を基礎となるヘテロフィリーとして完全に探索し,活用することで,新たなヘテロフィア対応グラフ注意ネットワーク(HA-GAT)を提案する。
論文 参考訳(メタデータ) (2023-02-07T03:21:55Z) - Refined Edge Usage of Graph Neural Networks for Edge Prediction [51.06557652109059]
We propose a novel edge prediction paradigm named Edge-aware Message PassIng neuRal nEtworks (EMPIRE)。
まず,各エッジをトポロジや監督のためにのみ使用するエッジ分割手法を提案する。
監視エッジで接続されたペアと接続されていないペアの差を強調するために、さらにメッセージを重み付けして、その差を反映できる相対的なペアを強調します。
論文 参考訳(メタデータ) (2022-12-25T23:19:56Z) - Single-Pass Contrastive Learning Can Work for Both Homophilic and
Heterophilic Graph [60.28340453547902]
グラフコントラッシブ・ラーニング(GCL)技術は通常、コントラッシブ・ロスを構築するために単一のインスタンスに対して2つのフォワードパスを必要とする。
既存のGCLアプローチは、強力なパフォーマンス保証を提供していない。
我々はSingle-Pass Graph Contrastive Learning法(SP-GCL)を実装した。
経験的に、SP-GCLが学んだ機能は、計算オーバーヘッドを著しく少なくして、既存の強いベースラインにマッチまたは性能を向上することができる。
論文 参考訳(メタデータ) (2022-11-20T07:18:56Z) - Geometry Contrastive Learning on Heterogeneous Graphs [50.58523799455101]
本稿では,幾何学コントラスト学習(Geometry Contrastive Learning, GCL)と呼ばれる,新しい自己指導型学習手法を提案する。
GCLはユークリッドと双曲的な視点からヘテロジニアスグラフを同時に見ることができ、リッチな意味論と複雑な構造をモデル化する能力の強い融合を目指している。
4つのベンチマークデータセットの大規模な実験は、提案手法が強いベースラインよりも優れていることを示している。
論文 参考訳(メタデータ) (2022-06-25T03:54:53Z) - Interpolation-based Correlation Reduction Network for Semi-Supervised
Graph Learning [49.94816548023729]
補間型相関低減ネットワーク(ICRN)と呼ばれる新しいグラフコントラスト学習手法を提案する。
提案手法では,決定境界のマージンを大きくすることで,潜在特徴の識別能力を向上させる。
この2つの設定を組み合わせることで、豊富なラベル付きノードと稀に価値あるラベル付きノードから豊富な監視情報を抽出し、離散表現学習を行う。
論文 参考訳(メタデータ) (2022-06-06T14:26:34Z) - Geometric Graph Representation Learning via Maximizing Rate Reduction [73.6044873825311]
学習ノード表現は、コミュニティ検出やノード分類などのグラフ解析において、さまざまな下流タスクの恩恵を受ける。
教師なしの方法でノード表現を学習するための幾何学グラフ表現学習(G2R)を提案する。
G2R は異なるグループ内のノードを異なる部分空間にマッピングし、各部分空間はコンパクトで異なる部分空間が分散される。
論文 参考訳(メタデータ) (2022-02-13T07:46:24Z) - AttrE2vec: Unsupervised Attributed Edge Representation Learning [22.774159996012276]
本稿では,アトリビュートネットワークにおけるエッジの低次元ベクトル表現を学習する新しい非教師付き誘導法AttrE2Vecを提案する。
実験により,現代の手法と比較して,より強力なエッジベクトル表現を構築した。
論文 参考訳(メタデータ) (2020-12-29T12:20:49Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。