論文の概要: Self-Supervised Graph Representation Learning via Global Context
Prediction
- arxiv url: http://arxiv.org/abs/2003.01604v1
- Date: Tue, 3 Mar 2020 15:46:01 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-26 22:09:29.085116
- Title: Self-Supervised Graph Representation Learning via Global Context
Prediction
- Title(参考訳): グローバルコンテキスト予測による自己教師付きグラフ表現学習
- Authors: Zhen Peng, Yixiang Dong, Minnan Luo, Xiao-Ming Wu, Qinghua Zheng
- Abstract要約: 本稿では,データ自体による自然監督を利用して,グラフ表現学習のための新たな自己教師型戦略を提案する。
グラフ内のノードのペアをランダムに選択し、よく設計されたニューラルネットをトレーニングし、一方のノードのコンテキスト位置を他方と相対的に予測する。
我々の仮説は、そのようなグラフ内コンテキストから得られた表現はグラフのグローバルなトポロジーを捉え、ノード間の類似性と区別を微妙に特徴づける、というものである。
- 参考スコア(独自算出の注目度): 31.07584920486755
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: To take full advantage of fast-growing unlabeled networked data, this paper
introduces a novel self-supervised strategy for graph representation learning
by exploiting natural supervision provided by the data itself. Inspired by
human social behavior, we assume that the global context of each node is
composed of all nodes in the graph since two arbitrary entities in a connected
network could interact with each other via paths of varying length. Based on
this, we investigate whether the global context can be a source of free and
effective supervisory signals for learning useful node representations.
Specifically, we randomly select pairs of nodes in a graph and train a
well-designed neural net to predict the contextual position of one node
relative to the other. Our underlying hypothesis is that the representations
learned from such within-graph context would capture the global topology of the
graph and finely characterize the similarity and differentiation between nodes,
which is conducive to various downstream learning tasks. Extensive benchmark
experiments including node classification, clustering, and link prediction
demonstrate that our approach outperforms many state-of-the-art unsupervised
methods and sometimes even exceeds the performance of supervised counterparts.
- Abstract(参考訳): 本稿では,グラフ表現学習のための新しい自己教師あり戦略を提案する。
人間の社会的行動に触発されて、各ノードのグローバルコンテキストは、連結ネットワーク内の2つの任意のエンティティが異なる長さの経路を介して相互に相互作用できるため、グラフ内のすべてのノードで構成されると仮定する。
そこで本研究では,グローバルコンテキストが有用なノード表現を学習するための,自由かつ効果的な監視信号の源となるかどうかを考察する。
具体的には、グラフ内のノードのペアをランダムに選択し、よく設計されたニューラルネットをトレーニングし、一方のノードの位置を他方と相対的に予測する。
我々の仮説は、そのようなグラフ内コンテキストから得られた表現は、グラフのグローバルなトポロジを捉え、様々な下流学習タスクに導かれるノード間の類似性と区別を微妙に特徴づける、というものである。
ノード分類,クラスタリング,リンク予測などの広範囲なベンチマーク実験により,提案手法は最先端の非教師付き手法よりも優れており,時には教師付き手法の性能を上回ることさえあることが示された。
関連論文リスト
- Unveiling Global Interactive Patterns across Graphs: Towards Interpretable Graph Neural Networks [31.29616732552006]
グラフニューラルネットワーク(GNN)は、グラフマイニングの著名なフレームワークとして登場した。
本稿では,グラフ分類に内在的に解釈可能な新しい手法を提案する。
グローバル対話パターン(GIP)学習は、学習可能なグローバル対話パターンを導入し、決定を明示的に解釈する。
論文 参考訳(メタデータ) (2024-07-02T06:31:13Z) - Federated Graph Semantic and Structural Learning [54.97668931176513]
本稿では,ノードレベルのセマンティクスとグラフレベルの構造の両方によって局所的なクライアントの歪みがもたらされることを示す。
構造的グラフニューラルネットワークは、固有の隣接関係のため、隣人に類似性を持っていると仮定する。
我々は、隣接関係を類似度分布に変換し、グローバルモデルを利用して関係知識を局所モデルに蒸留する。
論文 参考訳(メタデータ) (2024-06-27T07:08:28Z) - GNN-LoFI: a Novel Graph Neural Network through Localized Feature-based
Histogram Intersection [51.608147732998994]
グラフニューラルネットワークは、グラフベースの機械学習の選択フレームワークになりつつある。
本稿では,古典的メッセージパッシングに代えて,ノード特徴の局所分布を解析するグラフニューラルネットワークアーキテクチャを提案する。
論文 参考訳(メタデータ) (2024-01-17T13:04:23Z) - Self-Supervised Node Representation Learning via Node-to-Neighbourhood
Alignment [10.879056662671802]
自己教師付きノード表現学習は、教師付きノードと競合する未ラベルグラフからノード表現を学ぶことを目的としている。
本研究では,ノードとその周辺領域の隠蔽表現を整列させることにより,単純なyet効率の自己教師付きノード表現学習を提案する。
我々は,グラフ構造化データセットの集合に対して,ノード分類性能が期待できるノード表現を,小規模から大規模に学習する。
論文 参考訳(メタデータ) (2023-02-09T13:21:18Z) - STERLING: Synergistic Representation Learning on Bipartite Graphs [78.86064828220613]
二部グラフ表現学習の基本的な課題は、ノードの埋め込みを抽出する方法である。
最近の二部グラフSSL法は、正ノード対と負ノード対を識別することによって埋め込みを学習する対照的な学習に基づいている。
負のノードペアを持たないノード埋め込みを学習するための新しい相乗的表現学習モデル(STERling)を提案する。
論文 参考訳(メタデータ) (2023-01-25T03:21:42Z) - Graph Representation Learning via Contrasting Cluster Assignments [57.87743170674533]
GRCCAと呼ばれるクラスタ割り当てを対比して、教師なしグラフ表現モデルを提案する。
クラスタリングアルゴリズムとコントラスト学習を組み合わせることで、局所的およびグローバルな情報を合成的にうまく活用する動機付けがある。
GRCCAは、ほとんどのタスクにおいて強力な競争力を持っている。
論文 参考訳(メタデータ) (2021-12-15T07:28:58Z) - Self-supervised Consensus Representation Learning for Attributed Graph [15.729417511103602]
グラフ表現学習に自己教師付き学習機構を導入する。
本稿では,新しい自己教師型コンセンサス表現学習フレームワークを提案する。
提案手法はトポロジグラフと特徴グラフの2つの視点からグラフを扱う。
論文 参考訳(メタデータ) (2021-08-10T07:53:09Z) - Learning the Implicit Semantic Representation on Graph-Structured Data [57.670106959061634]
グラフ畳み込みネットワークにおける既存の表現学習手法は主に、各ノードの近傍を知覚全体として記述することで設計される。
本稿では,グラフの潜在意味パスを学習することで暗黙的な意味を探索する意味グラフ畳み込みネットワーク(sgcn)を提案する。
論文 参考訳(メタデータ) (2021-01-16T16:18:43Z) - Spectral Embedding of Graph Networks [76.27138343125985]
ローカルノードの類似性と接続性、グローバル構造をトレードオフする教師なしグラフ埋め込みを導入する。
埋め込みは一般化されたグラフ Laplacian に基づいており、固有ベクトルは1つの表現においてネットワーク構造と近傍近傍の両方をコンパクトにキャプチャする。
論文 参考訳(メタデータ) (2020-09-30T04:59:10Z) - Graph InfoClust: Leveraging cluster-level node information for
unsupervised graph representation learning [12.592903558338444]
本稿では,グラフ InfoClust というグラフ表現学習手法を提案する。
同社はさらに、クラスタレベルの情報コンテンツをキャプチャしようとしている。
この最適化により、ノード表現はよりリッチな情報とノイズ相互作用をキャプチャし、それによって品質が向上する。
論文 参考訳(メタデータ) (2020-09-15T09:33:20Z) - GraphCL: Contrastive Self-Supervised Learning of Graph Representations [20.439666392958284]
本稿では,ノード表現を自己教師型で学習するための一般的なフレームワークであるGraph Contrastive Learning (GraphCL)を提案する。
グラフニューラルネットワークを用いて、同じノードの2つの表現を生成し、対照的な学習損失を利用して両者の一致を最大化する。
帰納的学習と帰納的学習の両方において,本手法がノード分類ベンチマークにおいて教師なし学習の最先端性を大幅に上回っていることを示す。
論文 参考訳(メタデータ) (2020-07-15T22:36:53Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。