論文の概要: Improving ClusterGAN Using Self-Augmented Information Maximization of
Disentangling Latent Spaces
- arxiv url: http://arxiv.org/abs/2107.12706v2
- Date: Mon, 1 May 2023 05:45:44 GMT
- ステータス: 処理完了
- システム内更新日: 2023-05-02 22:00:07.711395
- Title: Improving ClusterGAN Using Self-Augmented Information Maximization of
Disentangling Latent Spaces
- Title(参考訳): 自己拡張情報最大化によるクラスタGANの改善
- Authors: Tanmoy Dam, Sreenatha G. Anavatti, Hussein A. Abbass
- Abstract要約: 本稿では,クラスタGAN(SIMI-ClusterGAN)を改良した自己拡張情報を提案する。
提案手法は,7つのベンチマークデータセットを用いて検証され,最先端技術よりも性能が向上した。
- 参考スコア(独自算出の注目度): 8.88634093297796
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Since their introduction in the last few years, conditional generative models
have seen remarkable achievements. However, they often need the use of large
amounts of labelled information. By using unsupervised conditional generation
in conjunction with a clustering inference network, ClusterGAN has recently
been able to achieve impressive clustering results. Since the real conditional
distribution of data is ignored, the clustering inference network can only
achieve inferior clustering performance by considering only uniform prior based
generative samples. However, the true distribution is not necessarily balanced.
Consequently, ClusterGAN fails to produce all modes, which results in
sub-optimal clustering inference network performance. So, it is important to
learn the prior, which tries to match the real distribution in an unsupervised
way. In this paper, we propose self-augmentation information maximization
improved ClusterGAN (SIMI-ClusterGAN) to learn the distinctive priors from the
data directly. The proposed SIMI-ClusterGAN consists of four deep neural
networks: self-augmentation prior network, generator, discriminator and
clustering inference network. The proposed method has been validated using
seven benchmark data sets and has shown improved performance over state-of-the
art methods. To demonstrate the superiority of SIMI-ClusterGAN performance on
imbalanced dataset, we have discussed two imbalanced conditions on MNIST
datasets with one-class imbalance and three classes imbalanced cases. The
results highlight the advantages of SIMI-ClusterGAN.
- Abstract(参考訳): 過去数年間に導入されて以来、条件付き生成モデルは顕著な成果を上げてきた。
しかし、しばしば大量のラベル付き情報を使用する必要がある。
クラスタリング推論ネットワークと協調して教師なし条件生成を使用することで、ClusterGANは最近、素晴らしいクラスタリング結果を達成することができた。
データの実条件分布を無視するので、一様事前ベース生成サンプルのみを考慮すれば、クラスタリング推論ネットワークは劣るクラスタリング性能しか達成できない。
しかし、真の分布は必ずしも平衡であるとは限らない。
その結果、clusterganはすべてのモードの生成に失敗し、結果としてサブ最適クラスタリング推論ネットワークのパフォーマンスが向上する。
したがって、実際の分布を教師なしの方法で一致させようとする事前学習が重要である。
本稿では,クラスタGAN(SIMI-ClusterGAN)を改良した自己拡張情報最大化手法を提案する。
提案したSIMI-ClusterGANは、自己拡張前のネットワーク、ジェネレータ、識別器、クラスタリング推論ネットワークの4つのディープニューラルネットワークで構成されている。
提案手法は7つのベンチマークデータセットを用いて検証され,最先端手法よりも性能が向上した。
不均衡データセットにおけるSIMI-ClusterGAN性能の優位性を示すために,MNISTデータセット上での2つの不均衡条件について検討した。
結果はSIMI-ClusterGANの利点を強調した。
関連論文リスト
- Adaptive Self-supervised Robust Clustering for Unstructured Data with Unknown Cluster Number [12.926206811876174]
適応型自己教師型ロバストクラスタリング(Adaptive Self-supervised Robust Clustering, ASRC)と呼ばれる非構造化データに適した,新たな自己教師型ディープクラスタリング手法を提案する。
ASRCはグラフ構造とエッジ重みを適応的に学習し、局所構造情報と大域構造情報の両方をキャプチャする。
ASRCは、クラスタ数の事前知識に依存するメソッドよりも優れており、非構造化データのクラスタリングの課題に対処する上での有効性を強調している。
論文 参考訳(メタデータ) (2024-07-29T15:51:09Z) - Stable Cluster Discrimination for Deep Clustering [7.175082696240088]
ディープクラスタリングは、インスタンスの表現(つまり、表現学習)を最適化し、固有のデータ分散を探索することができる。
結合された目的は、すべてのインスタンスが一様機能に崩壊する、自明な解決策を意味する。
本研究では,1段階クラスタリングにおいて,教師あり学習における一般的な識別タスクが不安定であることを示す。
新規な安定クラスタ識別(SeCu)タスクを提案し、それに応じて新しいハードネス対応クラスタリング基準を得ることができる。
論文 参考訳(メタデータ) (2023-11-24T06:43:26Z) - Reinforcement Graph Clustering with Unknown Cluster Number [91.4861135742095]
本稿では,Reinforcement Graph Clusteringと呼ばれる新しいディープグラフクラスタリング手法を提案する。
提案手法では,クラスタ数決定と教師なし表現学習を統一的なフレームワークに統合する。
フィードバック動作を行うために、クラスタリング指向の報酬関数を提案し、同一クラスタの凝集を高め、異なるクラスタを分離する。
論文 参考訳(メタデータ) (2023-08-13T18:12:28Z) - CADIS: Handling Cluster-skewed Non-IID Data in Federated Learning with
Clustered Aggregation and Knowledge DIStilled Regularization [3.3711670942444014]
フェデレーション学習は、エッジデバイスがデータを公開することなく、グローバルモデルを協調的にトレーニングすることを可能にする。
我々は、実際のデータセットで発見されたクラスタスキュード非IIDと呼ばれる新しいタイプの非IIDデータに取り組む。
本稿では,クラスタ間の平等を保証するアグリゲーション方式を提案する。
論文 参考訳(メタデータ) (2023-02-21T02:53:37Z) - Cluster-guided Contrastive Graph Clustering Network [53.16233290797777]
クラスタ誘導コントラストグラフクラスタリングネットワーク(CCGC)を提案する。
我々は、兄弟のサブネットワーク間で重みが共有されない特別なシームズエンコーダを設計することにより、グラフの2つのビューを構築する。
意味的な負のサンプルペアを構築するために、異なる高信頼度クラスタの中心を負のサンプルとみなす。
論文 参考訳(メタデータ) (2023-01-03T13:42:38Z) - Deep Attention-guided Graph Clustering with Dual Self-supervision [49.040136530379094]
デュアル・セルフ・スーパービジョン(DAGC)を用いたディープアテンション誘導グラフクラスタリング法を提案する。
我々は,三重項Kulback-Leibler分散損失を持つソフトな自己スーパービジョン戦略と,擬似的な監督損失を持つハードな自己スーパービジョン戦略からなる二重自己スーパービジョンソリューションを開発する。
提案手法は6つのベンチマークデータセットにおける最先端の手法より一貫して優れている。
論文 参考訳(メタデータ) (2021-11-10T06:53:03Z) - Self-supervised Contrastive Attributed Graph Clustering [110.52694943592974]
我々は,自己教師型コントラストグラフクラスタリング(SCAGC)という,新たな属性グラフクラスタリングネットワークを提案する。
SCAGCでは,不正確なクラスタリングラベルを活用することで,ノード表現学習のための自己教師付きコントラスト損失を設計する。
OOSノードでは、SCAGCはクラスタリングラベルを直接計算できる。
論文 参考訳(メタデータ) (2021-10-15T03:25:28Z) - Learning Statistical Representation with Joint Deep Embedded Clustering [2.1267423178232407]
StatDECは、共同統計表現学習とクラスタリングのための教師なしのフレームワークである。
実験により,これらの表現を用いることで,様々な画像データセットにまたがる不均衡な画像クラスタリングの結果を大幅に改善できることが示された。
論文 参考訳(メタデータ) (2021-09-11T09:26:52Z) - You Never Cluster Alone [150.94921340034688]
我々は、主流のコントラスト学習パラダイムをクラスタレベルのスキームに拡張し、同じクラスタに属するすべてのデータが統一された表現に寄与する。
分類変数の集合をクラスタ化代入信頼度として定義し、インスタンスレベルの学習トラックとクラスタレベルの学習トラックを関連付ける。
代入変数を再パラメータ化することで、TCCはエンドツーエンドでトレーニングされる。
論文 参考訳(メタデータ) (2021-06-03T14:59:59Z) - Unsupervised Visual Representation Learning by Online Constrained
K-Means [44.38989920488318]
クラスタ識別は、教師なし表現学習の効果的な前提課題である。
オンラインtextbfConstrained textbfK-mtextbfeans (textbfCoKe) を用いたクラスタリングに基づく新しいプリテキストタスクを提案する。
当社のオンライン割当て方式は,グローバルな最適化に近づくための理論的保証を持っている。
論文 参考訳(メタデータ) (2021-05-24T20:38:32Z) - Scalable Hierarchical Agglomerative Clustering [65.66407726145619]
既存のスケーラブルな階層的クラスタリング手法は、スピードの質を犠牲にする。
我々は、品質を犠牲にせず、数十億のデータポイントまでスケールする、スケーラブルで集約的な階層的クラスタリング法を提案する。
論文 参考訳(メタデータ) (2020-10-22T15:58:35Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。