論文の概要: THESAURUS: Contrastive Graph Clustering by Swapping Fused Gromov-Wasserstein Couplings
- arxiv url: http://arxiv.org/abs/2412.11550v2
- Date: Thu, 19 Dec 2024 03:00:59 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-12-20 13:30:39.230479
- Title: THESAURUS: Contrastive Graph Clustering by Swapping Fused Gromov-Wasserstein Couplings
- Title(参考訳): THESAURUS: Swapping Fused Gromov-Wasserstein Couplingsによるコントラストグラフクラスタリング
- Authors: Bowen Deng, Tong Wang, Lele Fu, Sheng Huang, Chuan Chen, Tao Zhang,
- Abstract要約: We present conTrastive grapH clustEring by SwApping fUsed gRomov-wasserstein couplingS (THESAURUS)
本手法では,コンテキスト情報を提供するためのセマンティックプロトタイプを導入し,クロスビュー代入予測プレテキストタスクを採用する。
これはGromov-Wasserstein Optimal Transport (GW-OT) と提案したプロトタイプグラフを利用して、グラフ構造のクラスタ情報を徹底的に活用する。
- 参考スコア(独自算出の注目度): 9.805171821491207
- License:
- Abstract: Graph node clustering is a fundamental unsupervised task. Existing methods typically train an encoder through selfsupervised learning and then apply K-means to the encoder output. Some methods use this clustering result directly as the final assignment, while others initialize centroids based on this initial clustering and then finetune both the encoder and these learnable centroids. However, due to their reliance on K-means, these methods inherit its drawbacks when the cluster separability of encoder output is low, facing challenges from the Uniform Effect and Cluster Assimilation. We summarize three reasons for the low cluster separability in existing methods: (1) lack of contextual information prevents discrimination between similar nodes from different clusters; (2) training tasks are not sufficiently aligned with the downstream clustering task; (3) the cluster information in the graph structure is not appropriately exploited. To address these issues, we propose conTrastive grapH clustEring by SwApping fUsed gRomov-wasserstein coUplingS (THESAURUS). Our method introduces semantic prototypes to provide contextual information, and employs a cross-view assignment prediction pretext task that aligns well with the downstream clustering task. Additionally, it utilizes Gromov-Wasserstein Optimal Transport (GW-OT) along with the proposed prototype graph to thoroughly exploit cluster information in the graph structure. To adapt to diverse real-world data, THESAURUS updates the prototype graph and the prototype marginal distribution in OT by using momentum. Extensive experiments demonstrate that THESAURUS achieves higher cluster separability than the prior art, effectively mitigating the Uniform Effect and Cluster Assimilation issues
- Abstract(参考訳): グラフノードのクラスタリングは、基本的な教師なしのタスクである。
既存の方法は通常、自己教師付き学習を通じてエンコーダを訓練し、それからK平均をエンコーダ出力に適用する。
このクラスタリング結果を最終割り当てとして直接使用する方法もあるが、この初期クラスタリングに基づいてセントロイドを初期化し、エンコーダとこれらの学習可能なセントロイドの両方を微調整する手法もある。
しかしながら、これらの手法はK平均に依存するため、エンコーダ出力のクラスタ分離性が低い場合にその欠点を継承し、統一効果とクラスタ同化の課題に直面している。
既存の手法におけるクラスタ分離性の低い3つの理由を要約する。(1)コンテキスト情報の欠如は、異なるクラスタからの類似ノード間の識別を妨げ、(2)トレーニングタスクは、下流クラスタリングタスクと十分な整合性を持たず、(3)グラフ構造内のクラスタ情報は適切に利用されていない。
これらの問題に対処するために,SwApping fUsed gRomov-wasserstein coUplingS (THESAURUS) を用いた conTrastive grapH clustEring を提案する。
提案手法では,コンテキスト情報を提供するためのセマンティックプロトタイプを導入し,ダウンストリームクラスタリングタスクと整合するクロスビュー代入予測プレテキストタスクを採用する。
さらに、Gromov-Wasserstein Optimal Transport (GW-OT) と提案したプロトタイプグラフを用いて、グラフ構造のクラスタ情報を徹底的に活用する。
多様な実世界のデータに適応するために、THESAURUSは運動量を用いて、プロトタイプグラフとOTにおけるプロトタイプの限界分布を更新する。
大規模な実験により、TheSAURUSは先行技術よりも高いクラスタ分離性を実現し、一様効果とクラスタ同化問題を効果的に緩和することを示した。
関連論文リスト
- Self-Supervised Graph Embedding Clustering [70.36328717683297]
K-means 1-step dimensionality reduction clustering method は,クラスタリングタスクにおける次元性の呪いに対処する上で,いくつかの進歩をもたらした。
本稿では,K-meansに多様体学習を統合する統一フレームワークを提案する。
論文 参考訳(メタデータ) (2024-09-24T08:59:51Z) - Deep Contrastive Graph Learning with Clustering-Oriented Guidance [61.103996105756394]
グラフ畳み込みネットワーク(GCN)は、グラフベースのクラスタリングを改善する上で大きな可能性を秘めている。
モデルはGCNを適用するために初期グラフを事前に推定する。
一般的なデータクラスタリングには,Deep Contrastive Graph Learning (DCGL)モデルが提案されている。
論文 参考訳(メタデータ) (2024-02-25T07:03:37Z) - Learning Uniform Clusters on Hypersphere for Deep Graph-level Clustering [25.350054742471816]
我々はUDGC(Uniform Deep Graph Clustering)と呼ばれる新しいディープグラフレベルのクラスタリング手法を提案する。
UDGCはインスタンスを異なるクラスタに均等に割り当て、次にこれらのクラスタをユニットハイパースフィア上に分散させ、より均一なクラスタレベルの分散と、より小さなクラスタ崩壊につながる。
8つのよく知られたデータセットに関する実証研究は、UDGCが最先端のモデルを大幅に上回っていることを示している。
論文 参考訳(メタデータ) (2023-11-23T12:08:20Z) - Reinforcement Graph Clustering with Unknown Cluster Number [91.4861135742095]
本稿では,Reinforcement Graph Clusteringと呼ばれる新しいディープグラフクラスタリング手法を提案する。
提案手法では,クラスタ数決定と教師なし表現学習を統一的なフレームワークに統合する。
フィードバック動作を行うために、クラスタリング指向の報酬関数を提案し、同一クラスタの凝集を高め、異なるクラスタを分離する。
論文 参考訳(メタデータ) (2023-08-13T18:12:28Z) - Hard Regularization to Prevent Deep Online Clustering Collapse without
Data Augmentation [65.268245109828]
オンラインディープクラスタリング(オンラインディープクラスタリング)とは、機能抽出ネットワークとクラスタリングモデルを組み合わせて、クラスタラベルを処理された各新しいデータポイントまたはバッチに割り当てることである。
オフラインメソッドよりも高速で汎用性が高いが、オンラインクラスタリングは、エンコーダがすべての入力を同じポイントにマッピングし、すべてを単一のクラスタに配置する、崩壊したソリューションに容易に到達することができる。
本稿では,データ拡張を必要としない手法を提案する。
論文 参考訳(メタデータ) (2023-03-29T08:23:26Z) - Graph Representation Learning via Contrasting Cluster Assignments [57.87743170674533]
GRCCAと呼ばれるクラスタ割り当てを対比して、教師なしグラフ表現モデルを提案する。
クラスタリングアルゴリズムとコントラスト学習を組み合わせることで、局所的およびグローバルな情報を合成的にうまく活用する動機付けがある。
GRCCAは、ほとんどのタスクにおいて強力な競争力を持っている。
論文 参考訳(メタデータ) (2021-12-15T07:28:58Z) - Self-supervised Contrastive Attributed Graph Clustering [110.52694943592974]
我々は,自己教師型コントラストグラフクラスタリング(SCAGC)という,新たな属性グラフクラスタリングネットワークを提案する。
SCAGCでは,不正確なクラスタリングラベルを活用することで,ノード表現学習のための自己教師付きコントラスト損失を設計する。
OOSノードでは、SCAGCはクラスタリングラベルを直接計算できる。
論文 参考訳(メタデータ) (2021-10-15T03:25:28Z) - Rethinking Graph Autoencoder Models for Attributed Graph Clustering [1.2158275183241178]
グラフオートエンコーダ(GAE)は、共同クラスタリングと埋め込み学習に使用されている。
本研究では,雑音の多いクラスタリングの課題を学習し,隣接行列を再構築する際の累積誤差について検討する。
ノイズの多いクラスタリングの代入に対して保護機構をトリガーするサンプリング演算子を$Xi$で提案する。
論文 参考訳(メタデータ) (2021-07-19T00:00:35Z) - Augmented Data as an Auxiliary Plug-in Towards Categorization of
Crowdsourced Heritage Data [2.609784101826762]
本稿では,データ拡張を補助プラグインとして導入することで,非効率なクラスタリング性能の問題を緩和する戦略を提案する。
我々は、深層クラスタリングのための新しいモデルとして初期特徴空間を構築するために、拡張データを用いた畳み込みオートエンコーダ(CAE)の変種を訓練する。
論文 参考訳(メタデータ) (2021-07-08T14:09:39Z) - GATCluster: Self-Supervised Gaussian-Attention Network for Image
Clustering [9.722607434532883]
画像クラスタリングのための自己教師型クラスタリングネットワーク(GATCluster)を提案する。
まず中間機能を抽出し、次に従来のクラスタリングを実行する代わりに、GATClusterセマンティッククラスタラベルを後処理なしで実行します。
大規模画像のクラスタリングにメモリ効率のよい2段階学習アルゴリズムを開発した。
論文 参考訳(メタデータ) (2020-02-27T00:57:18Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。