論文の概要: Mixing Consistent Deep Clustering
- arxiv url: http://arxiv.org/abs/2011.01977v1
- Date: Tue, 3 Nov 2020 19:47:06 GMT
- ステータス: 処理完了
- システム内更新日: 2022-09-30 04:07:13.216351
- Title: Mixing Consistent Deep Clustering
- Title(参考訳): 混合一貫性深層クラスタリング
- Authors: Daniel Lutscher, Ali el Hassouni, Maarten Stol, Mark Hoogendoorn
- Abstract要約: 良い潜在表現は、2つの潜在表現の線形を復号する際に意味的に混合出力を生成する。
本稿では,表現をリアルに見せるための混合一貫性深層クラスタリング手法を提案する。
提案手法は,クラスタリング性能を向上させるために,既存のオートエンコーダに付加可能であることを示す。
- 参考スコア(独自算出の注目度): 3.5786621294068373
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Finding well-defined clusters in data represents a fundamental challenge for
many data-driven applications, and largely depends on good data representation.
Drawing on literature regarding representation learning, studies suggest that
one key characteristic of good latent representations is the ability to produce
semantically mixed outputs when decoding linear interpolations of two latent
representations. We propose the Mixing Consistent Deep Clustering method which
encourages interpolations to appear realistic while adding the constraint that
interpolations of two data points must look like one of the two inputs. By
applying this training method to various clustering (non-)specific autoencoder
models we found that using the proposed training method systematically changed
the structure of learned representations of a model and it improved clustering
performance for the tested ACAI, IDEC, and VAE models on the MNIST, SVHN, and
CIFAR-10 datasets. These outcomes have practical implications for numerous
real-world clustering tasks, as it shows that the proposed method can be added
to existing autoencoders to further improve clustering performance.
- Abstract(参考訳): データ内の明確に定義されたクラスタを見つけることは、多くのデータ駆動アプリケーションにとって根本的な課題であり、データ表現に大きく依存する。
表現学習に関する文献から,2つの潜在表現の線形補間を復号する際に,有意な潜在表現の1つの重要な特徴が意味混合出力を生成できることが示唆された。
2つのデータポイントの補間を2つの入力のうちの1つに見せなければならないという制約を加えながら、補間を現実的に見えるように促す混合一貫性のある深層クラスタリング法を提案する。
このトレーニング手法を様々なクラスタリング(非特定のオートエンコーダモデル)に適用することにより,提案手法を用いて学習したモデルの表現構造を体系的に変更し,MNIST,SVHN,CIFAR-10データセット上で試験されたACAI,IDEC,VAEモデルのクラスタリング性能を改善した。
これらの結果は,クラスタリング性能を向上させるために,既存のオートエンコーダに提案手法を付加できることが示されている。
関連論文リスト
- Dual Advancement of Representation Learning and Clustering for Sparse and Noisy Images [14.836487514037994]
SNI(Sparse and Noisy Image)は、効果的な表現学習とクラスタリングに重要な課題を提起する。
本稿では、マスク画像モデリングから得られた表現を強化するために、DARLC(Dual Advancement of Representation Learning and Clustering)を提案する。
我々のフレームワークは、局所的な認識性、特異性、関係意味論の理解を高めることによって、表現の学習を改善する包括的なアプローチを提供する。
論文 参考訳(メタデータ) (2024-09-03T10:52:27Z) - Self Supervised Correlation-based Permutations for Multi-View Clustering [7.972599673048582]
汎用データのためのエンドツーエンドのディープラーニングベースのMVCフレームワークを提案する。
我々のアプローチは、新しい置換に基づく正準相関目標を用いて有意義な融合データ表現を学習することである。
10つのMVCベンチマークデータセットを用いて、モデルの有効性を実証する。
論文 参考訳(メタデータ) (2024-02-26T08:08:30Z) - One for all: A novel Dual-space Co-training baseline for Large-scale
Multi-View Clustering [42.92751228313385]
我々は、Dual-space Co-training Large-scale Multi-view Clustering (DSCMC)という新しいマルチビュークラスタリングモデルを提案する。
提案手法の主な目的は,2つの異なる空間における協調学習を活用することにより,クラスタリング性能を向上させることである。
我々のアルゴリズムは近似線形計算複雑性を持ち、大規模データセットへの適用が成功することを保証している。
論文 参考訳(メタデータ) (2024-01-28T16:30:13Z) - Convolutional autoencoder-based multimodal one-class classification [80.52334952912808]
1クラス分類は、単一のクラスからのデータを用いた学習のアプローチを指す。
マルチモーダルデータに適した深層学習一クラス分類法を提案する。
論文 参考訳(メタデータ) (2023-09-25T12:31:18Z) - A Clustering-guided Contrastive Fusion for Multi-view Representation
Learning [7.630965478083513]
本稿では、ビュー固有表現をビュー共通表現に融合する深層融合ネットワークを提案する。
また、ビュー共通表現とビュー固有表現を一致させる非対称なコントラスト戦略を設計する。
不完全な視点では,提案手法は競合相手よりもノイズ干渉に抵抗する。
論文 参考訳(メタデータ) (2022-12-28T07:21:05Z) - Unified Multi-View Orthonormal Non-Negative Graph Based Clustering
Framework [74.25493157757943]
我々は,非負の特徴特性を活用し,多視点情報を統合された共同学習フレームワークに組み込む,新しいクラスタリングモデルを定式化する。
また、深層機能に基づいたクラスタリングデータに対するマルチモデル非負グラフベースのアプローチを初めて検討する。
論文 参考訳(メタデータ) (2022-11-03T08:18:27Z) - Semantic Representation and Dependency Learning for Multi-Label Image
Recognition [76.52120002993728]
本稿では,各カテゴリのカテゴリ固有のセマンティック表現を学習するための,新しい,効果的なセマンティック表現と依存性学習(SRDL)フレームワークを提案する。
具体的には,カテゴリー別注意領域(CAR)モジュールを設計し,チャネル/空間的注意行列を生成してモデルを導出する。
また、カテゴリ間のセマンティック依存を暗黙的に学習するオブジェクト消去(OE)モジュールを設計し、セマンティック認識領域を消去する。
論文 参考訳(メタデータ) (2022-04-08T00:55:15Z) - Adaptive Discrete Communication Bottlenecks with Dynamic Vector
Quantization [76.68866368409216]
入力に条件付けされた離散化の厳密度を動的に選択する学習を提案する。
コミュニケーションボトルネックの動的に変化する厳密さは、視覚的推論や強化学習タスクにおけるモデル性能を向上させることができることを示す。
論文 参考訳(メタデータ) (2022-02-02T23:54:26Z) - Graph Contrastive Clustering [131.67881457114316]
本稿では,クラスタリングタスクに適用可能な新しいグラフコントラスト学習フレームワークを提案し,gcc(graph constrastive clustering)法を考案した。
特に、グラフラプラシアンに基づくコントラスト損失は、より識別的かつクラスタリングフレンドリーな特徴を学ぶために提案されている。
一方で、よりコンパクトなクラスタリング割り当てを学ぶために、グラフベースのコントラスト学習戦略が提案されている。
論文 参考訳(メタデータ) (2021-04-03T15:32:49Z) - Deep adaptive fuzzy clustering for evolutionary unsupervised
representation learning [2.8028128734158164]
大規模で複雑な画像のクラスタ割り当ては、パターン認識とコンピュータビジョンにおいて重要かつ困難な作業です。
反復最適化による新しい進化的教師なし学習表現モデルを提案する。
ファジィメンバシップを利用して深層クラスタ割り当ての明確な構造を表現するディープリコンストラクションモデルに対して,共同でファジィクラスタリングを行った。
論文 参考訳(メタデータ) (2021-03-31T13:58:10Z) - Dual Adversarial Auto-Encoders for Clustering [152.84443014554745]
教師なしクラスタリングのためのDual-AAE(Dual-AAE)を提案する。
Dual-AAEの目的関数に対する変分推論を行うことで,一対のオートエンコーダをトレーニングすることで最適化可能な新たな再構成損失を導出する。
4つのベンチマーク実験により、Dual-AAEは最先端のクラスタリング手法よりも優れた性能を発揮することが示された。
論文 参考訳(メタデータ) (2020-08-23T13:16:34Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。