論文の概要: Masked AutoEncoder for Graph Clustering without Pre-defined Cluster
Number k
- arxiv url: http://arxiv.org/abs/2401.04741v1
- Date: Tue, 9 Jan 2024 08:34:36 GMT
- ステータス: 処理完了
- システム内更新日: 2024-01-11 16:18:04.326684
- Title: Masked AutoEncoder for Graph Clustering without Pre-defined Cluster
Number k
- Title(参考訳): 予め定義されたクラスタ番号kを使わずにグラフクラスタリングを行うMasked AutoEncoder
- Authors: Yuanchi Ma, Hui He, Zhongxiang Lei, Zhendong Niu
- Abstract要約: マスク付きオートエンコーダ(GCMA)を用いたグラフクラスタリングという新しいフレームワークを提案する。
グラフの融合符号化のためのグラフマスキング法に基づいて設計したフュージョンオートエンコーダを用いる。
改良された密度ベースクラスタリングアルゴリズムを第2復号器として導入し,マルチターゲット再構成による復号化を実現した。
- 参考スコア(独自算出の注目度): 15.711916432302576
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Graph clustering algorithms with autoencoder structures have recently gained
popularity due to their efficient performance and low training cost. However,
for existing graph autoencoder clustering algorithms based on GCN or GAT, not
only do they lack good generalization ability, but also the number of clusters
clustered by such autoencoder models is difficult to determine automatically.
To solve this problem, we propose a new framework called Graph Clustering with
Masked Autoencoders (GCMA). It employs our designed fusion autoencoder based on
the graph masking method for the fusion coding of graph. It introduces our
improved density-based clustering algorithm as a second decoder while decoding
with multi-target reconstruction. By decoding the mask embedding, our model can
capture more generalized and comprehensive knowledge. The number of clusters
and clustering results can be output end-to-end while improving the
generalization ability. As a nonparametric class method, extensive experiments
demonstrate the superiority of \textit{GCMA} over state-of-the-art baselines.
- Abstract(参考訳): オートエンコーダ構造を持つグラフクラスタリングアルゴリズムは、パフォーマンスとトレーニングコストの低さから最近人気を集めている。
しかし、GCNやGATに基づく既存のグラフオートエンコーダクラスタリングアルゴリズムでは、優れた一般化能力が欠如しているだけでなく、そのようなオートエンコーダモデルによってクラスタ化されたクラスタの数を自動的に決定することが困難である。
そこで我々は,Masked Autoencoders (GCMA) を用いたグラフクラスタリングという新しいフレームワークを提案する。
グラフの融合符号化のためのグラフマスキング法に基づいて設計したフュージョンオートエンコーダを用いる。
改良された密度ベースクラスタリングアルゴリズムを第2復号器として導入し,マルチターゲット再構成による復号化を行った。
マスクの埋め込みをデコードすることで、我々のモデルはより一般化され包括的な知識を捉えることができる。
クラスタ数とクラスタ化の結果は、一般化能力を高めながらエンドツーエンドに出力できる。
非パラメトリックなクラス法として、最先端のベースラインよりも \textit{GCMA} の方が優れていることを示す広範な実験がある。
関連論文リスト
- Generative and Contrastive Paradigms Are Complementary for Graph
Self-Supervised Learning [56.45977379288308]
Masked Autoencoder (MAE)は、マスク付きグラフエッジやノード機能の再構築を学ぶ。
Contrastive Learning (CL)は、同じグラフの拡張ビュー間の類似性を最大化する。
我々は,MAE と CL を統一するグラフコントラッシブマスク付きオートエンコーダ (GCMAE) フレームワークを提案する。
論文 参考訳(メタデータ) (2023-10-24T05:06:06Z) - Reinforcement Graph Clustering with Unknown Cluster Number [91.4861135742095]
本稿では,Reinforcement Graph Clusteringと呼ばれる新しいディープグラフクラスタリング手法を提案する。
提案手法では,クラスタ数決定と教師なし表現学習を統一的なフレームワークに統合する。
フィードバック動作を行うために、クラスタリング指向の報酬関数を提案し、同一クラスタの凝集を高め、異なるクラスタを分離する。
論文 参考訳(メタデータ) (2023-08-13T18:12:28Z) - Hard Regularization to Prevent Deep Online Clustering Collapse without
Data Augmentation [65.268245109828]
オンラインディープクラスタリング(オンラインディープクラスタリング)とは、機能抽出ネットワークとクラスタリングモデルを組み合わせて、クラスタラベルを処理された各新しいデータポイントまたはバッチに割り当てることである。
オフラインメソッドよりも高速で汎用性が高いが、オンラインクラスタリングは、エンコーダがすべての入力を同じポイントにマッピングし、すべてを単一のクラスタに配置する、崩壊したソリューションに容易に到達することができる。
本稿では,データ拡張を必要としない手法を提案する。
論文 参考訳(メタデータ) (2023-03-29T08:23:26Z) - ClusterFuG: Clustering Fully connected Graphs by Multicut [20.254912065749956]
密マルチカットでは、クラスタリングの目的はノード特徴ベクトルの内部積として分解形式で与えられる。
我々は、密集した環境でのマルチカットのための古典的欲求アルゴリズムの書き直し方法と、より効率とソリューションの品質を高めるためにそれらをどう修正するかを示す。
論文 参考訳(メタデータ) (2023-01-28T11:10:50Z) - Graph-Collaborated Auto-Encoder Hashing for Multi-view Binary Clustering [11.082316688429641]
マルチビューバイナリクラスタリングのための自動エンコーダに基づくハッシュアルゴリズムを提案する。
具体的には,低ランク制約を用いた多視点親和性グラフ学習モデルを提案する。
また、複数の親和性グラフを協調して協調するエンコーダ・デコーダのパラダイムを設計し、統一されたバイナリコードを効果的に学習する。
論文 参考訳(メタデータ) (2023-01-06T12:43:13Z) - MGAE: Masked Autoencoders for Self-Supervised Learning on Graphs [55.66953093401889]
Masked Graph Autoencoder (MGAE) フレームワークは、グラフ構造データの効果的な学習を行う。
自己指導型学習から洞察を得て、私たちはランダムに大量のエッジを隠蔽し、トレーニング中に欠落したエッジを再構築しようとします。
論文 参考訳(メタデータ) (2022-01-07T16:48:07Z) - Enhancing Latent Space Clustering in Multi-filter Seq2Seq Model: A
Reinforcement Learning Approach [0.0]
クラスタリングアルゴリズムを用いて潜在空間表現を解析する潜時拡張型マルチフィルタセq2seqモデル (LMS2S) を設計する。
セマンティック解析と機械翻訳の実験により,クラスタリングの品質とモデルの性能の正の相関が示された。
論文 参考訳(メタデータ) (2021-09-25T16:36:31Z) - Rethinking Graph Autoencoder Models for Attributed Graph Clustering [1.2158275183241178]
グラフオートエンコーダ(GAE)は、共同クラスタリングと埋め込み学習に使用されている。
本研究では,雑音の多いクラスタリングの課題を学習し,隣接行列を再構築する際の累積誤差について検討する。
ノイズの多いクラスタリングの代入に対して保護機構をトリガーするサンプリング演算子を$Xi$で提案する。
論文 参考訳(メタデータ) (2021-07-19T00:00:35Z) - AEGCN: An Autoencoder-Constrained Graph Convolutional Network [5.023274927781062]
本稿では,オートエンコーダ制約付きグラフ畳み込みネットワークと呼ばれる新しいニューラルネットワークアーキテクチャを提案する。
このモデルのコアはグラフ上で直接動作する畳み込みネットワークであり、隠れた層はオートエンコーダによって制約される。
オートエンコーダの制約を追加することで,グラフ畳み込みネットワークの性能が大幅に向上することを示す。
論文 参考訳(メタデータ) (2020-07-03T16:42:55Z) - Learning to Cluster Faces via Confidence and Connectivity Estimation [136.5291151775236]
重複する部分グラフを多数必要とせず,完全に学習可能なクラスタリングフレームワークを提案する。
提案手法はクラスタリングの精度を大幅に向上させ,その上で訓練した認識モデルの性能を向上させるが,既存の教師付き手法に比べて桁違いに効率的である。
論文 参考訳(メタデータ) (2020-04-01T13:39:37Z) - Adaptive Graph Auto-Encoder for General Data Clustering [90.8576971748142]
グラフベースのクラスタリングは、クラスタリング領域において重要な役割を果たす。
グラフ畳み込みニューラルネットワークに関する最近の研究は、グラフ型データにおいて驚くべき成功を収めている。
本稿では,グラフの生成的視点に応じて適応的にグラフを構成する汎用データクラスタリングのためのグラフ自動エンコーダを提案する。
論文 参考訳(メタデータ) (2020-02-20T10:11:28Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。