論文の概要: Deep clustering using adversarial net based clustering loss
- arxiv url: http://arxiv.org/abs/2412.08933v2
- Date: Tue, 31 Dec 2024 06:21:35 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-01-03 14:34:04.570959
- Title: Deep clustering using adversarial net based clustering loss
- Title(参考訳): 対向ネットに基づくクラスタリング損失を用いたディープクラスタリング
- Authors: Kart-Leong Lim,
- Abstract要約: 我々は、従来の閉形式 KL の発散に対して、対角ネットとして深層クラスタリングを再構成する。
提案手法の性能をいくつかのよく引用されたデータセットで実証した。
- 参考スコア(独自算出の注目度): 0.65268245109828
- License:
- Abstract: Deep clustering is a recent deep learning technique which combines deep learning with traditional unsupervised clustering. At the heart of deep clustering is a loss function which penalizes samples for being an outlier from their ground truth cluster centers in the latent space. The probabilistic variant of deep clustering reformulates the loss using KL divergence. Often, the main constraint of deep clustering is the necessity of a closed form loss function to make backpropagation tractable. Inspired by deep clustering and adversarial net, we reformulate deep clustering as an adversarial net over traditional closed form KL divergence. Training deep clustering becomes a task of minimizing the encoder and maximizing the discriminator. At optimality, this method theoretically approaches the JS divergence between the distribution assumption of the encoder and the discriminator. We demonstrated the performance of our proposed method on several well cited datasets such as SVHN, USPS, MNIST and CIFAR10, achieving on-par or better performance with some of the state-of-the-art deep clustering methods.
- Abstract(参考訳): ディープクラスタリングは、ディープラーニングと従来の教師なしクラスタリングを組み合わせた、最近のディープラーニング技術である。
深層クラスタリングの中心にあるロス関数は、地下の真理星団の中心から外れた部分のサンプルをペナライズする。
ディープクラスタリングの確率的変種は、KL分散を用いて損失を再構成する。
ディープクラスタリングの主な制約は、バックプロパゲーションをトラクタブルにするための閉形式損失関数の必要性である。
深層クラスタリングと対角ネットに着想を得て、従来の閉形式KL分散に対する対角ネットとして深層クラスタリングを再構成する。
深層クラスタリングの訓練は、エンコーダを最小化し、識別器を最大化するタスクとなる。
最適性において、この手法は、エンコーダの分布仮定と判別器とのJSのばらつきに理論的にアプローチする。
我々は,SVHN,USPS,MNIST,CIFAR10などのよく引用されたデータセットに対して提案手法の性能を実演し,最先端の深層クラスタリング手法による性能向上を実現した。
関連論文リスト
- Anti-Collapse Loss for Deep Metric Learning Based on Coding Rate Metric [99.19559537966538]
DMLは、分類、クラスタリング、検索といった下流タスクのための識別可能な高次元埋め込み空間を学習することを目的としている。
埋め込み空間の構造を維持し,特徴の崩壊を避けるために,反崩壊損失と呼ばれる新しい損失関数を提案する。
ベンチマークデータセットの総合実験により,提案手法が既存の最先端手法より優れていることを示す。
論文 参考訳(メタデータ) (2024-07-03T13:44:20Z) - Deep Clustering: A Comprehensive Survey [53.387957674512585]
クラスタリング分析は、機械学習とデータマイニングにおいて必須の役割を果たす。
ディープ・クラスタリングは、ディープ・ニューラルネットワークを使ってクラスタリングフレンドリーな表現を学習することができるが、幅広いクラスタリングタスクに広く適用されている。
ディープクラスタリングに関する既存の調査は、主にシングルビューフィールドとネットワークアーキテクチャに焦点を当てており、クラスタリングの複雑なアプリケーションシナリオを無視している。
論文 参考訳(メタデータ) (2022-10-09T02:31:32Z) - DeepCluE: Enhanced Image Clustering via Multi-layer Ensembles in Deep
Neural Networks [53.88811980967342]
本稿では,Ensembles (DeepCluE) を用いたDeep Clusteringを提案する。
ディープニューラルネットワークにおける複数のレイヤのパワーを活用することで、ディープクラスタリングとアンサンブルクラスタリングのギャップを埋める。
6つの画像データセットの実験結果から、最先端のディープクラスタリングアプローチに対するDeepCluEの利点が確認されている。
論文 参考訳(メタデータ) (2022-06-01T09:51:38Z) - Augmented Data as an Auxiliary Plug-in Towards Categorization of
Crowdsourced Heritage Data [2.609784101826762]
本稿では,データ拡張を補助プラグインとして導入することで,非効率なクラスタリング性能の問題を緩和する戦略を提案する。
我々は、深層クラスタリングのための新しいモデルとして初期特徴空間を構築するために、拡張データを用いた畳み込みオートエンコーダ(CAE)の変種を訓練する。
論文 参考訳(メタデータ) (2021-07-08T14:09:39Z) - Deep Distribution-preserving Incomplete Clustering with Optimal
Transport [43.0056459311929]
DDIC-OT(Deep Distribution-preserving Incomplete Clustering with Optimal Transport)と呼ばれる新しい深層不完全クラスタリング手法を提案する。
提案ネットワークは, 既存の不完全クラスタリング手法に対して, 異なる欠落率で優れたクラスタリング性能を実現する。
論文 参考訳(メタデータ) (2021-03-21T15:43:17Z) - Deep Clustering by Semantic Contrastive Learning [67.28140787010447]
Semantic Contrastive Learning (SCL) と呼ばれる新しい変種を紹介します。
従来のコントラスト学習とディープクラスタリングの両方の特徴を探求する。
コントラスト学習と深層クラスタリングの強みを統一的なアプローチで増幅することができる。
論文 参考訳(メタデータ) (2021-03-03T20:20:48Z) - Joint Optimization of an Autoencoder for Clustering and Embedding [22.16059261437617]
本稿では,自動エンコーダとクラスタリングを同時に学習する代替手法を提案する。
この単純なニューラルネットワークはクラスタリングモジュールと呼ばれ、ディープオートエンコーダに統合され、ディープクラスタリングモデルとなる。
論文 参考訳(メタデータ) (2020-12-07T14:38:10Z) - Overcomplete Deep Subspace Clustering Networks [80.16644725886968]
4つのベンチマークデータセットの実験結果から,クラスタリング誤差の観点から,DSCや他のクラスタリング手法に対する提案手法の有効性が示された。
また,本手法は,最高の性能を得るために事前学習を中止する点にDSCほど依存せず,騒音にも頑健である。
論文 参考訳(メタデータ) (2020-11-16T22:07:18Z) - Scalable Hierarchical Agglomerative Clustering [65.66407726145619]
既存のスケーラブルな階層的クラスタリング手法は、スピードの質を犠牲にする。
我々は、品質を犠牲にせず、数十億のデータポイントまでスケールする、スケーラブルで集約的な階層的クラスタリング法を提案する。
論文 参考訳(メタデータ) (2020-10-22T15:58:35Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。