論文の概要: Deep Temporal Contrastive Clustering
- arxiv url: http://arxiv.org/abs/2212.14366v1
- Date: Thu, 29 Dec 2022 16:43:34 GMT
- ステータス: 処理完了
- システム内更新日: 2023-01-02 17:07:16.794547
- Title: Deep Temporal Contrastive Clustering
- Title(参考訳): 深部時間的コントラストクラスタリング
- Authors: Ying Zhong, Dong Huang, Chang-Dong Wang
- Abstract要約: 本稿では,時間差の深いクラスタリング手法を提案する。
対照的な学習パラダイムを、ディープ時系列クラスタリング研究に取り入れている。
様々な時系列データセットの実験は、最先端技術に対する我々のアプローチの優位性を実証している。
- 参考スコア(独自算出の注目度): 21.660509622172274
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Recently the deep learning has shown its advantage in representation learning
and clustering for time series data. Despite the considerable progress, the
existing deep time series clustering approaches mostly seek to train the deep
neural network by some instance reconstruction based or cluster distribution
based objective, which, however, lack the ability to exploit the sample-wise
(or augmentation-wise) contrastive information or even the higher-level (e.g.,
cluster-level) contrastiveness for learning discriminative and
clustering-friendly representations. In light of this, this paper presents a
deep temporal contrastive clustering (DTCC) approach, which for the first time,
to our knowledge, incorporates the contrastive learning paradigm into the deep
time series clustering research. Specifically, with two parallel views
generated from the original time series and their augmentations, we utilize two
identical auto-encoders to learn the corresponding representations, and in the
meantime perform the cluster distribution learning by incorporating a k-means
objective. Further, two levels of contrastive learning are simultaneously
enforced to capture the instance-level and cluster-level contrastive
information, respectively. With the reconstruction loss of the auto-encoder,
the cluster distribution loss, and the two levels of contrastive losses jointly
optimized, the network architecture is trained in a self-supervised manner and
the clustering result can thereby be obtained. Experiments on a variety of time
series datasets demonstrate the superiority of our DTCC approach over the
state-of-the-art.
- Abstract(参考訳): 近年、ディープラーニングは時系列データの表現学習とクラスタリングにおいてそのアドバンテージを示している。
大規模な進歩にもかかわらず、既存のディープ時系列クラスタリングアプローチは、主に、いくつかのインスタンス再構成ベースまたはクラスタ分布ベースの目的によって、ディープニューラルネットワークをトレーニングしようとするが、それは、サンプルワイド(または拡張ワイド)のコントラスト情報や、差別的およびクラスタリングフレンドリーな表現を学ぶための高レベル(例えば、クラスタレベル)のコントラストネスを活用できない。
そこで本研究では,時間差クラスタリング(DTCC, Deep temporal contrastive clustering)手法を提案する。
具体的には、元の時系列とその拡張から生成された2つの並列ビューを用いて、2つの同一のオートエンコーダを使用して対応する表現を学習し、その間にk-means目標を組み込んでクラスタ分布学習を行う。
さらに、インスタンスレベルとクラスタレベルのコントラスト情報を取得するために、コントラスト学習の2つのレベルを同時に実施する。
自動エンコーダの再構成損失、クラスタ分布損失、コントラスト損失の2レベルを共同で最適化することにより、ネットワークアーキテクチャを自己教師ありで訓練し、クラスタリング結果を得ることができる。
時系列データセットのさまざまな実験は、最先端のdtccアプローチが優れていることを示している。
関連論文リスト
- Cluster-guided Contrastive Graph Clustering Network [53.16233290797777]
クラスタ誘導コントラストグラフクラスタリングネットワーク(CCGC)を提案する。
我々は、兄弟のサブネットワーク間で重みが共有されない特別なシームズエンコーダを設計することにより、グラフの2つのビューを構築する。
意味的な負のサンプルペアを構築するために、異なる高信頼度クラスタの中心を負のサンプルとみなす。
論文 参考訳(メタデータ) (2023-01-03T13:42:38Z) - MHCCL: Masked Hierarchical Cluster-Wise Contrastive Learning for
Multivariate Time Series [20.008535430484475]
Masked Hierarchical Cluster-wise Contrastive Learning modelを示す。
時系列の複数の潜在パーティションからなる階層構造から得られる意味情報を利用する。
教師なし時系列表現学習における最先端の手法よりも優れていることが示されている。
論文 参考訳(メタデータ) (2022-12-02T12:42:53Z) - A Deep Dive into Deep Cluster [0.2578242050187029]
DeepClusterは、ビジュアル表現のシンプルでスケーラブルな教師なし事前トレーニングである。
本稿では,DeepClusterの収束と性能が,畳み込み層のランダムフィルタの品質と選択されたクラスタ数の相互作用に依存することを示す。
論文 参考訳(メタデータ) (2022-07-24T22:55:09Z) - Deep Image Clustering with Contrastive Learning and Multi-scale Graph
Convolutional Networks [58.868899595936476]
コントラスト学習とマルチスケールグラフ畳み込みネットワーク(IcicleGCN)を用いた画像クラスタリング手法を提案する。
複数の画像データセットの実験は、最先端のIcicleGCNよりも優れたクラスタリング性能を示している。
論文 参考訳(メタデータ) (2022-07-14T19:16:56Z) - DeepCluE: Enhanced Image Clustering via Multi-layer Ensembles in Deep
Neural Networks [53.88811980967342]
本稿では,Ensembles (DeepCluE) を用いたDeep Clusteringを提案する。
ディープニューラルネットワークにおける複数のレイヤのパワーを活用することで、ディープクラスタリングとアンサンブルクラスタリングのギャップを埋める。
6つの画像データセットの実験結果から、最先端のディープクラスタリングアプローチに対するDeepCluEの利点が確認されている。
論文 参考訳(メタデータ) (2022-06-01T09:51:38Z) - Cluster Analysis with Deep Embeddings and Contrastive Learning [0.0]
本研究は,深層埋め込みから画像クラスタリングを行うための新しいフレームワークを提案する。
提案手法では,クラスタセンターの表現をエンドツーエンドで学習し,予測する。
我々のフレームワークは広く受け入れられているクラスタリング手法と同等に動作し、CIFAR-10データセット上で最先端のコントラスト学習手法より優れています。
論文 参考訳(メタデータ) (2021-09-26T22:18:15Z) - Learning Statistical Representation with Joint Deep Embedded Clustering [2.1267423178232407]
StatDECは、共同統計表現学習とクラスタリングのための教師なしのフレームワークである。
実験により,これらの表現を用いることで,様々な画像データセットにまたがる不均衡な画像クラスタリングの結果を大幅に改善できることが示された。
論文 参考訳(メタデータ) (2021-09-11T09:26:52Z) - You Never Cluster Alone [150.94921340034688]
我々は、主流のコントラスト学習パラダイムをクラスタレベルのスキームに拡張し、同じクラスタに属するすべてのデータが統一された表現に寄与する。
分類変数の集合をクラスタ化代入信頼度として定義し、インスタンスレベルの学習トラックとクラスタレベルの学習トラックを関連付ける。
代入変数を再パラメータ化することで、TCCはエンドツーエンドでトレーニングされる。
論文 参考訳(メタデータ) (2021-06-03T14:59:59Z) - Graph Contrastive Clustering [131.67881457114316]
本稿では,クラスタリングタスクに適用可能な新しいグラフコントラスト学習フレームワークを提案し,gcc(graph constrastive clustering)法を考案した。
特に、グラフラプラシアンに基づくコントラスト損失は、より識別的かつクラスタリングフレンドリーな特徴を学ぶために提案されている。
一方で、よりコンパクトなクラスタリング割り当てを学ぶために、グラフベースのコントラスト学習戦略が提案されている。
論文 参考訳(メタデータ) (2021-04-03T15:32:49Z) - Scalable Hierarchical Agglomerative Clustering [65.66407726145619]
既存のスケーラブルな階層的クラスタリング手法は、スピードの質を犠牲にする。
我々は、品質を犠牲にせず、数十億のデータポイントまでスケールする、スケーラブルで集約的な階層的クラスタリング法を提案する。
論文 参考訳(メタデータ) (2020-10-22T15:58:35Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。