論文の概要: Graph InfoClust: Leveraging cluster-level node information for
unsupervised graph representation learning
- arxiv url: http://arxiv.org/abs/2009.06946v1
- Date: Tue, 15 Sep 2020 09:33:20 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-18 05:29:52.726124
- Title: Graph InfoClust: Leveraging cluster-level node information for
unsupervised graph representation learning
- Title(参考訳): graph infoclust: 教師なしグラフ表現学習にクラスタレベルのノード情報を活用する
- Authors: Costas Mavromatis, George Karypis
- Abstract要約: 本稿では,グラフ InfoClust というグラフ表現学習手法を提案する。
同社はさらに、クラスタレベルの情報コンテンツをキャプチャしようとしている。
この最適化により、ノード表現はよりリッチな情報とノイズ相互作用をキャプチャし、それによって品質が向上する。
- 参考スコア(独自算出の注目度): 12.592903558338444
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Unsupervised (or self-supervised) graph representation learning is essential
to facilitate various graph data mining tasks when external supervision is
unavailable. The challenge is to encode the information about the graph
structure and the attributes associated with the nodes and edges into a low
dimensional space. Most existing unsupervised methods promote similar
representations across nodes that are topologically close. Recently, it was
shown that leveraging additional graph-level information, e.g., information
that is shared among all nodes, encourages the representations to be mindful of
the global properties of the graph, which greatly improves their quality.
However, in most graphs, there is significantly more structure that can be
captured, e.g., nodes tend to belong to (multiple) clusters that represent
structurally similar nodes. Motivated by this observation, we propose a graph
representation learning method called Graph InfoClust (GIC), that seeks to
additionally capture cluster-level information content. These clusters are
computed by a differentiable K-means method and are jointly optimized by
maximizing the mutual information between nodes of the same clusters. This
optimization leads the node representations to capture richer information and
nodal interactions, which improves their quality. Experiments show that GIC
outperforms state-of-art methods in various downstream tasks (node
classification, link prediction, and node clustering) with a 0.9% to 6.1% gain
over the best competing approach, on average.
- Abstract(参考訳): 教師なし(あるいは自己教師付き)グラフ表現学習は、外部監視が不可能なときに、様々なグラフデータマイニングタスクを容易にするために不可欠である。
課題は、グラフ構造に関する情報とノードとエッジに関連する属性を低次元空間にエンコードすることである。
既存の教師なし手法の多くは、トポロジカルに近いノード間の類似した表現を促進する。
近年,全てのノード間で共有される情報などのグラフレベルの追加情報を活用することにより,グラフのグローバルな特性に留意し,その品質を大幅に向上することが示されている。
しかし、ほとんどのグラフでは、ノードは構造的に類似したノードを表す(複数の)クラスタに属する傾向があります。
本稿では,クラスタレベルの情報コンテンツを付加的にキャプチャするグラフ表現学習手法であるGraph InfoClust(GIC)を提案する。
これらのクラスタは、微分可能なK平均法で計算され、同一クラスタのノード間の相互情報を最大化することにより、共同最適化される。
この最適化により、ノード表現はよりリッチな情報とnodalインタラクションをキャプチャし、それによって品質が向上する。
実験の結果、GICは様々な下流タスク(ノード分類、リンク予測、ノードクラスタリング)における最先端の手法よりも0.9%から6.1%向上していることがわかった。
関連論文リスト
- DGNN: Decoupled Graph Neural Networks with Structural Consistency
between Attribute and Graph Embedding Representations [62.04558318166396]
グラフニューラルネットワーク(GNN)は、複雑な構造を持つグラフ上での表現学習の堅牢性を示す。
ノードのより包括的な埋め込み表現を得るために、Decoupled Graph Neural Networks (DGNN)と呼ばれる新しいGNNフレームワークが導入された。
複数のグラフベンチマークデータセットを用いて、ノード分類タスクにおけるDGNNの優位性を検証した。
論文 参考訳(メタデータ) (2024-01-28T06:43:13Z) - Redundancy-Free Self-Supervised Relational Learning for Graph Clustering [13.176413653235311]
冗長フリーグラフクラスタリング(R$2$FGC)という,自己教師付き深層グラフクラスタリング手法を提案する。
オートエンコーダとグラフオートエンコーダに基づいて,グローバルビューとローカルビューの両方から属性レベルと構造レベルの関係情報を抽出する。
この実験は,R$2$FGCが最先端のベースラインよりも優れていることを示すために,広く使用されているベンチマークデータセット上で実施されている。
論文 参考訳(メタデータ) (2023-09-09T06:18:50Z) - Graph Representation Learning via Contrasting Cluster Assignments [57.87743170674533]
GRCCAと呼ばれるクラスタ割り当てを対比して、教師なしグラフ表現モデルを提案する。
クラスタリングアルゴリズムとコントラスト学習を組み合わせることで、局所的およびグローバルな情報を合成的にうまく活用する動機付けがある。
GRCCAは、ほとんどのタスクにおいて強力な競争力を持っている。
論文 参考訳(メタデータ) (2021-12-15T07:28:58Z) - Edge but not Least: Cross-View Graph Pooling [76.71497833616024]
本稿では,重要なグラフ構造情報を活用するために,クロスビューグラフプーリング(Co-Pooling)手法を提案する。
クロスビュー相互作用、エッジビュープーリング、ノードビュープーリングにより、相互にシームレスに強化され、より情報的なグラフレベルの表現が学習される。
論文 参考訳(メタデータ) (2021-09-24T08:01:23Z) - Effective and Efficient Graph Learning for Multi-view Clustering [173.8313827799077]
マルチビュークラスタリングのための効率的かつ効率的なグラフ学習モデルを提案する。
本手法はテンソルシャッテンp-ノルムの最小化により異なるビューのグラフ間のビュー類似性を利用する。
提案アルゴリズムは時間経済であり,安定した結果を得るとともに,データサイズによく対応している。
論文 参考訳(メタデータ) (2021-08-15T13:14:28Z) - A Robust and Generalized Framework for Adversarial Graph Embedding [73.37228022428663]
本稿では,AGE という逆グラフ埋め込みのための頑健なフレームワークを提案する。
AGEは、暗黙の分布から強化された負のサンプルとして偽の隣接ノードを生成する。
本フレームワークでは,3種類のグラフデータを扱う3つのモデルを提案する。
論文 参考訳(メタデータ) (2021-05-22T07:05:48Z) - Accurate Learning of Graph Representations with Graph Multiset Pooling [45.72542969364438]
本稿では,その構造的依存関係に応じてノード間の相互作用をキャプチャするグラフマルチセットトランス (GMT) を提案する。
実験の結果,GMTはグラフ分類ベンチマークにおいて,最先端のグラフプーリング法を著しく上回っていることがわかった。
論文 参考訳(メタデータ) (2021-02-23T07:45:58Z) - CAGNN: Cluster-Aware Graph Neural Networks for Unsupervised Graph
Representation Learning [19.432449825536423]
教師なしグラフ表現学習は、教師なしの低次元ノード埋め込みを学習することを目的としている。
本稿では、自己教師付き手法を用いた教師なしグラフ表現学習のための新しいクラスタ対応グラフニューラルネットワーク(CAGNN)モデルを提案する。
論文 参考訳(メタデータ) (2020-09-03T13:57:18Z) - Unsupervised Hierarchical Graph Representation Learning by Mutual
Information Maximization [8.14036521415919]
教師なしグラフ表現学習法,Unsupervised Hierarchical Graph Representation (UHGR)を提案する。
本手法は,「ローカル」表現と「グローバル」表現の相互情報の最大化に焦点をあてる。
その結果,提案手法は,いくつかのベンチマークにおいて,最先端の教師付き手法に匹敵する結果が得られることがわかった。
論文 参考訳(メタデータ) (2020-03-18T18:21:48Z) - Graph Inference Learning for Semi-supervised Classification [50.55765399527556]
半教師付きノード分類の性能を高めるためのグラフ推論学習フレームワークを提案する。
推論過程の学習には,トレーニングノードから検証ノードへの構造関係のメタ最適化を導入する。
4つのベンチマークデータセットの総合的な評価は、最先端の手法と比較して提案したGILの優位性を示している。
論文 参考訳(メタデータ) (2020-01-17T02:52:30Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。