論文の概要: CAGNN: Cluster-Aware Graph Neural Networks for Unsupervised Graph
Representation Learning
- arxiv url: http://arxiv.org/abs/2009.01674v1
- Date: Thu, 3 Sep 2020 13:57:18 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-22 07:15:59.157717
- Title: CAGNN: Cluster-Aware Graph Neural Networks for Unsupervised Graph
Representation Learning
- Title(参考訳): CAGNN:教師なしグラフ表現学習のためのクラスタ対応グラフニューラルネットワーク
- Authors: Yanqiao Zhu and Yichen Xu and Feng Yu and Shu Wu and Liang Wang
- Abstract要約: 教師なしグラフ表現学習は、教師なしの低次元ノード埋め込みを学習することを目的としている。
本稿では、自己教師付き手法を用いた教師なしグラフ表現学習のための新しいクラスタ対応グラフニューラルネットワーク(CAGNN)モデルを提案する。
- 参考スコア(独自算出の注目度): 19.432449825536423
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Unsupervised graph representation learning aims to learn low-dimensional node
embeddings without supervision while preserving graph topological structures
and node attributive features. Previous graph neural networks (GNN) require a
large number of labeled nodes, which may not be accessible in real-world graph
data. In this paper, we present a novel cluster-aware graph neural network
(CAGNN) model for unsupervised graph representation learning using
self-supervised techniques. In CAGNN, we perform clustering on the node
embeddings and update the model parameters by predicting the cluster
assignments. Moreover, we observe that graphs often contain inter-class edges,
which mislead the GNN model to aggregate noisy information from neighborhood
nodes. We further refine the graph topology by strengthening intra-class edges
and reducing node connections between different classes based on cluster
labels, which better preserves cluster structures in the embedding space. We
conduct comprehensive experiments on two benchmark tasks using real-world
datasets. The results demonstrate the superior performance of the proposed
model over existing baseline methods. Notably, our model gains over 7%
improvements in terms of accuracy on node clustering over state-of-the-arts.
- Abstract(参考訳): 教師なしグラフ表現学習は、グラフトポロジ構造とノード属性の特徴を保存しながら、教師なしの低次元ノード埋め込みを学習することを目的としている。
従来のグラフニューラルネットワーク(gnn)は、実世界のグラフデータではアクセスできない多くのラベル付きノードを必要とする。
本稿では,自己教師あり手法を用いた教師なしグラフ表現学習のためのクラスタ対応グラフニューラルネットワーク(cagnn)モデルを提案する。
CAGNNでは,ノード埋め込み上でクラスタリングを行い,クラスタ割り当てを予測してモデルパラメータを更新する。
さらに,グラフにはクラス間エッジがしばしば含まれており,近隣ノードからノイズ情報を収集するためにGNNモデルを誤解させる。
さらに,クラス内エッジを強化し,クラスタラベルに基づく異なるクラス間のノード接続を削減し,クラスタ構造を組込み空間に保持することで,グラフトポロジをさらに洗練する。
実世界のデータセットを用いて2つのベンチマークタスクの包括的な実験を行う。
その結果,提案手法は既存のベースライン法よりも優れた性能を示した。
特に,我々のモデルでは,最先端のノードクラスタリングにおける精度が7%以上向上している。
関連論文リスト
- LSEnet: Lorentz Structural Entropy Neural Network for Deep Graph Clustering [59.89626219328127]
グラフクラスタリングは機械学習の基本的な問題である。
近年、ディープラーニング手法は最先端の成果を達成しているが、事前に定義されたクラスタ番号なしでは動作できない。
本稿では,グラフ情報理論の新たな視点からこの問題に対処することを提案する。
論文 参考訳(メタデータ) (2024-05-20T05:46:41Z) - You do not have to train Graph Neural Networks at all on text-attributed graphs [25.044734252779975]
我々は、同じクラスからのテキストエンコーディングがしばしば線形部分空間に集約されるという観察に乗じて、線形GNNモデルであるTrainlessGNNを紹介した。
実験の結果、私たちのトレインレスモデルは、従来の訓練済みのモデルにマッチするか、超えられることがわかった。
論文 参考訳(メタデータ) (2024-04-17T02:52:11Z) - Cluster-based Graph Collaborative Filtering [55.929052969825825]
グラフ畳み込みネットワーク(GCN)は、レコメンデーションシステムのためのユーザおよびアイテム表現の学習に成功している。
既存のGCNベースのほとんどのメソッドは、高階グラフ畳み込みを実行しながら、ユーザの複数の関心事を見落としている。
クラスタベースグラフ協調フィルタリング(ClusterGCF)と呼ばれる新しいGCNベースのレコメンデーションモデルを提案する。
論文 参考訳(メタデータ) (2024-04-16T07:05:16Z) - A Variational Edge Partition Model for Supervised Graph Representation
Learning [51.30365677476971]
本稿では,重なり合うノード群間の相互作用を集約することで,観測されたエッジがどのように生成されるかをモデル化するグラフ生成プロセスを提案する。
それぞれのエッジを複数のコミュニティ固有の重み付きエッジの和に分割し、コミュニティ固有のGNNを定義する。
エッジを異なるコミュニティに分割するGNNベースの推論ネットワーク,これらのコミュニティ固有のGNN,およびコミュニティ固有のGNNを最終分類タスクに組み合わせたGNNベースの予測器を共同で学習するために,変分推論フレームワークを提案する。
論文 参考訳(メタデータ) (2022-02-07T14:37:50Z) - ACE-HGNN: Adaptive Curvature Exploration Hyperbolic Graph Neural Network [72.16255675586089]
本稿では、入力グラフと下流タスクに基づいて最適な曲率を適応的に学習する適応曲率探索ハイパーボリックグラフニューラルネットワークACE-HGNNを提案する。
複数の実世界のグラフデータセットの実験は、競争性能と優れた一般化能力を備えたモデル品質において、顕著で一貫したパフォーマンス改善を示す。
論文 参考訳(メタデータ) (2021-10-15T07:18:57Z) - Learning Hierarchical Graph Neural Networks for Image Clustering [81.5841862489509]
本稿では,画像の集合を未知の個数にクラスタリングする方法を学ぶ階層型グラフニューラルネットワーク(GNN)モデルを提案する。
我々の階層的なGNNは、階層の各レベルで予測される連結コンポーネントをマージして、次のレベルで新しいグラフを形成するために、新しいアプローチを用いています。
論文 参考訳(メタデータ) (2021-07-03T01:28:42Z) - GAIN: Graph Attention & Interaction Network for Inductive
Semi-Supervised Learning over Large-scale Graphs [18.23435958000212]
グラフニューラルネットワーク(GNN)は、推薦、ノード分類、リンク予測など、さまざまな機械学習タスクにおいて最先端のパフォーマンスを実現している。
既存のGNNモデルの多くは、隣接するノード情報を集約するために単一のタイプのアグリゲータを利用している。
本稿では,グラフ上の帰納学習のための新しいグラフニューラルネットワークアーキテクチャであるグラフ注意と相互作用ネットワーク(GAIN)を提案する。
論文 参考訳(メタデータ) (2020-11-03T00:20:24Z) - Graph InfoClust: Leveraging cluster-level node information for
unsupervised graph representation learning [12.592903558338444]
本稿では,グラフ InfoClust というグラフ表現学習手法を提案する。
同社はさらに、クラスタレベルの情報コンテンツをキャプチャしようとしている。
この最適化により、ノード表現はよりリッチな情報とノイズ相互作用をキャプチャし、それによって品質が向上する。
論文 参考訳(メタデータ) (2020-09-15T09:33:20Z) - Graph Clustering with Graph Neural Networks [5.305362965553278]
グラフニューラルネットワーク(GNN)は多くのグラフ解析タスクにおいて最先端の結果を得た。
グラフクラスタリングのようなグラフ上の教師なしの問題は、GNNの進歩に対してより抵抗性があることが証明されている。
本稿では,クラスタリング品質のモジュラリティ尺度にインスパイアされた教師なしプール手法であるDeep Modularity Networks (DMoN)を紹介する。
論文 参考訳(メタデータ) (2020-06-30T15:30:49Z) - Self-Enhanced GNN: Improving Graph Neural Networks Using Model Outputs [20.197085398581397]
グラフニューラルネットワーク(GNN)は最近、グラフベースのタスクにおける優れたパフォーマンスのために、多くの注目を集めている。
本稿では,既存のGNNモデルの出力を用いて,入力データの品質を向上させる自己強化型GNN(SEG)を提案する。
SEGは、GCN、GAT、SGCといったよく知られたGNNモデルのさまざまなデータセットのパフォーマンスを一貫して改善する。
論文 参考訳(メタデータ) (2020-02-18T12:27:16Z) - Graph Inference Learning for Semi-supervised Classification [50.55765399527556]
半教師付きノード分類の性能を高めるためのグラフ推論学習フレームワークを提案する。
推論過程の学習には,トレーニングノードから検証ノードへの構造関係のメタ最適化を導入する。
4つのベンチマークデータセットの総合的な評価は、最先端の手法と比較して提案したGILの優位性を示している。
論文 参考訳(メタデータ) (2020-01-17T02:52:30Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。