論文の概要: EGRC-Net: Embedding-induced Graph Refinement Clustering Network
- arxiv url: http://arxiv.org/abs/2211.10627v2
- Date: Tue, 14 Nov 2023 06:00:04 GMT
- ステータス: 処理完了
- システム内更新日: 2023-11-15 19:25:30.938134
- Title: EGRC-Net: Embedding-induced Graph Refinement Clustering Network
- Title(参考訳): EGRC-Net:埋め込みによるグラフリファインメントクラスタリングネットワーク
- Authors: Zhihao Peng, Hui Liu, Yuheng Jia, Junhui Hou
- Abstract要約: 埋め込みによるグラフリファインメントクラスタリングネットワーク (EGRC-Net) という新しいグラフクラスタリングネットワークを提案する。
EGRC-Netは学習した埋め込みを利用して初期グラフを適応的に洗練し、クラスタリング性能を向上させる。
提案手法はいくつかの最先端手法より一貫して優れている。
- 参考スコア(独自算出の注目度): 66.44293190793294
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Existing graph clustering networks heavily rely on a predefined yet fixed
graph, which can lead to failures when the initial graph fails to accurately
capture the data topology structure of the embedding space. In order to address
this issue, we propose a novel clustering network called Embedding-Induced
Graph Refinement Clustering Network (EGRC-Net), which effectively utilizes the
learned embedding to adaptively refine the initial graph and enhance the
clustering performance. To begin, we leverage both semantic and topological
information by employing a vanilla auto-encoder and a graph convolution
network, respectively, to learn a latent feature representation. Subsequently,
we utilize the local geometric structure within the feature embedding space to
construct an adjacency matrix for the graph. This adjacency matrix is
dynamically fused with the initial one using our proposed fusion architecture.
To train the network in an unsupervised manner, we minimize the Jeffreys
divergence between multiple derived distributions. Additionally, we introduce
an improved approximate personalized propagation of neural predictions to
replace the standard graph convolution network, enabling EGRC-Net to scale
effectively. Through extensive experiments conducted on nine widely-used
benchmark datasets, we demonstrate that our proposed methods consistently
outperform several state-of-the-art approaches. Notably, EGRC-Net achieves an
improvement of more than 11.99\% in Adjusted Rand Index (ARI) over the best
baseline on the DBLP dataset. Furthermore, our scalable approach exhibits a
10.73% gain in ARI while reducing memory usage by 33.73% and decreasing running
time by 19.71%. The code for EGRC-Net will be made publicly available at
\url{https://github.com/ZhihaoPENG-CityU/EGRC-Net}.
- Abstract(参考訳): 既存のグラフクラスタリングネットワークは、事前に定義された固定されたグラフに大きく依存しており、初期グラフが埋め込み空間のデータトポロジ構造を正確にキャプチャできなかった場合に失敗する可能性がある。
そこで,本研究では,学習埋め込みを有効に活用し,初期グラフを適応的に洗練し,クラスタリング性能を向上させる,embedd-induced graphfine clustering network (egrc-net) という新しいクラスタリングネットワークを提案する。
まず,バニラオートエンコーダとグラフ畳み込みネットワークを用いて,潜在特徴表現を学習することにより,意味的情報と位相的情報の両方を活用する。
その後、特徴埋め込み空間内の局所幾何学構造を利用してグラフの隣接行列を構成する。
この隣接行列は,提案した融合アーキテクチャを用いて,初期と動的に融合する。
ネットワークを教師なしで訓練するために、複数の派生分布間のジェフリー分散を最小限に抑える。
さらに,標準グラフ畳み込みネットワークを置き換え,egrc-netを効果的にスケール可能にするために,ニューラルネットワーク予測のパーソナライズされた近似伝播法を提案する。
9つの広く使われているベンチマークデータセットで行った広範囲な実験を通じて、提案手法が最先端のアプローチを一貫して上回っていることを実証する。
特に、EGRC-Netは、DBLPデータセットの最高のベースラインよりも11.99\%以上改善されている。
さらに、スケーラブルなアプローチではariが10.73%向上し、メモリ使用量を33.73%削減し、実行時間を19.71%削減した。
EGRC-Netのコードは \url{https://github.com/ZhihaoPENG-CityU/EGRC-Net} で公開されている。
関連論文リスト
- GNN-LoFI: a Novel Graph Neural Network through Localized Feature-based
Histogram Intersection [51.608147732998994]
グラフニューラルネットワークは、グラフベースの機械学習の選択フレームワークになりつつある。
本稿では,古典的メッセージパッシングに代えて,ノード特徴の局所分布を解析するグラフニューラルネットワークアーキテクチャを提案する。
論文 参考訳(メタデータ) (2024-01-17T13:04:23Z) - Graph Transformer GANs with Graph Masked Modeling for Architectural
Layout Generation [153.92387500677023]
本稿では,グラフノード関係を効果的に学習するために,GTGAN(Graph Transformer Generative Adversarial Network)を提案する。
提案したグラフ変換器エンコーダは、局所的およびグローバルな相互作用をモデル化するために、Transformer内のグラフ畳み込みと自己アテンションを組み合わせる。
また,グラフ表現学習のための自己指導型事前学習手法を提案する。
論文 参考訳(メタデータ) (2024-01-15T14:36:38Z) - Deep Manifold Graph Auto-Encoder for Attributed Graph Embedding [51.75091298017941]
本稿では,属性付きグラフデータに対する新しいDeep Manifold (Variational) Graph Auto-Encoder (DMVGAE/DMGAE)を提案する。
提案手法は,最先端のベースラインアルゴリズムを,一般的なデータセット間でのダウンストリームタスクの差を大きく越える。
論文 参考訳(メタデータ) (2024-01-12T17:57:07Z) - Efficient Heterogeneous Graph Learning via Random Projection [58.4138636866903]
不均一グラフニューラルネットワーク(HGNN)は、異種グラフを深層学習するための強力なツールである。
最近のプリ計算ベースのHGNNは、一時間メッセージパッシングを使用して不均一グラフを正規形テンソルに変換する。
我々はRandom Projection Heterogeneous Graph Neural Network (RpHGNN) というハイブリッド計算前HGNNを提案する。
論文 参考訳(メタデータ) (2023-10-23T01:25:44Z) - GCondNet: A Novel Method for Improving Neural Networks on Small High-Dimensional Tabular Data [14.124731264553889]
我々はGCondNetを提案し、データに存在する暗黙構造を活用してニューラルネットワークを強化する。
GCondNetはデータの高次元性を利用して、基礎となる予測ネットワークの性能を向上させる。
GCondNetが実世界の12のデータセットに対して有効であることを示す。
論文 参考訳(メタデータ) (2022-11-11T16:13:34Z) - SCGC : Self-Supervised Contrastive Graph Clustering [1.1470070927586016]
グラフクラスタリングはネットワーク内のグループやコミュニティを検出する。
オートエンコーダのような深層学習手法は、豊富な構造情報を組み込むことはできない。
自己監督型コントラストグラフクラスタリング(SCGC)を提案する。
論文 参考訳(メタデータ) (2022-04-27T01:38:46Z) - SLGCN: Structure Learning Graph Convolutional Networks for Graphs under
Heterophily [5.619890178124606]
本稿では2つの側面から問題を緩和する構造学習グラフ畳み込みネットワーク(SLGCN)を提案する。
具体的には、全ての類似ノードから特徴表現を効率的に集約するために、アンカーを用いた効率的なスペクトルクラスタリング(ESC-ANCH)を設計する。
幅広いベンチマークデータセットの実験結果は、提案されたSLGCNが、最先端のGNNよりも優れていることを示している。
論文 参考訳(メタデータ) (2021-05-28T13:00:38Z) - Dynamic Graph: Learning Instance-aware Connectivity for Neural Networks [78.65792427542672]
動的グラフネットワーク(DG-Net)は完全な有向非巡回グラフであり、ノードは畳み込みブロックを表し、エッジは接続経路を表す。
ネットワークの同じパスを使用する代わりに、DG-Netは各ノードの機能を動的に集約する。
論文 参考訳(メタデータ) (2020-10-02T16:50:26Z) - Representation Learning of Graphs Using Graph Convolutional Multilayer
Networks Based on Motifs [17.823543937167848]
mGCMNはノードの特徴情報とグラフの高階局所構造を利用する新しいフレームワークである。
グラフニューラルネットワークの学習効率を大幅に改善し、新たな学習モードの確立を促進する。
論文 参考訳(メタデータ) (2020-07-31T04:18:20Z) - Self-Constructing Graph Convolutional Networks for Semantic Labeling [23.623276007011373]
本稿では,学習可能な潜伏変数を用いて埋め込みを生成する自己構築グラフ(SCG)を提案する。
SCGは、空中画像中の複雑な形状の物体から、最適化された非局所的なコンテキストグラフを自動的に取得することができる。
本稿では,ISPRS Vaihingen データセット上で提案した SCG の有効性と柔軟性を示す。
論文 参考訳(メタデータ) (2020-03-15T21:55:24Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。