論文の概要: AUTOSHAPE: An Autoencoder-Shapelet Approach for Time Series Clustering
- arxiv url: http://arxiv.org/abs/2208.04313v1
- Date: Sat, 6 Aug 2022 06:00:45 GMT
- ステータス: 処理完了
- システム内更新日: 2022-08-10 12:09:53.511661
- Title: AUTOSHAPE: An Autoencoder-Shapelet Approach for Time Series Clustering
- Title(参考訳): autoshape: 時系列クラスタリングのためのautoencoder-shapeletアプローチ
- Authors: Guozhong Li, Byron Choi, Jianliang Xu, Sourav S Bhowmick, Daphne
Ngar-yin Mah, and Grace Lai-Hung Wong
- Abstract要約: 非教師的手法でシェイプレットを決定するための新しいオートエンコーダ・シェープレット手法(AUTOSHAPE)を提案する。
オートエンコーダは、高品質なシェイプレットを学習するために特別に設計されている。
我々はAUTOSHAPEについて広範な実験を行った。
- 参考スコア(独自算出の注目度): 38.98898783270346
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Time series shapelets are discriminative subsequences that have been recently
found effective for time series clustering (TSC). The shapelets are convenient
for interpreting the clusters. Thus, the main challenge for TSC is to discover
high-quality variable-length shapelets to discriminate different clusters. In
this paper, we propose a novel autoencoder-shapelet approach (AUTOSHAPE), which
is the first study to take the advantage of both autoencoder and shapelet for
determining shapelets in an unsupervised manner. An autoencoder is specially
designed to learn high-quality shapelets. More specifically, for guiding the
latent representation learning, we employ the latest self-supervised loss to
learn the unified embeddings for variable-length shapelet candidates (time
series subsequences) of different variables, and propose the diversity loss to
select the discriminating embeddings in the unified space. We introduce the
reconstruction loss to recover shapelets in the original time series space for
clustering. Finally, we adopt Davies Bouldin index (DBI) to inform AUTOSHAPE of
the clustering performance during learning. We present extensive experiments on
AUTOSHAPE. To evaluate the clustering performance on univariate time series
(UTS), we compare AUTOSHAPE with 15 representative methods using UCR archive
datasets. To study the performance of multivariate time series (MTS), we
evaluate AUTOSHAPE on 30 UEA archive datasets with 5 competitive methods. The
results validate that AUTOSHAPE is the best among all the methods compared. We
interpret clusters with shapelets, and can obtain interesting intuitions about
clusters in three UTS case studies and one MTS case study, respectively.
- Abstract(参考訳): 時系列シェープレットは、最近時系列クラスタリング(TSC)に有効であることが判明した識別サブシーケンスである。
シェープレットはクラスタの解釈に便利である。
したがって、TSCの主な課題は、異なるクラスタを識別する高品質な可変長形状レットを見つけることである。
本稿では,新しいオートエンコーダ・シェープレットアプローチ(autoshape)を提案する。このアプローチは,教師なしの方法でシェープレットを決定する際に,オートエンコーダとシェープレットの両方を利用する最初の研究である。
オートエンコーダは高品質なシェープレットを学習するために特別に設計されている。
より具体的には、潜在表現学習を指導するために、異なる変数の可変長シェープレット候補(時系列サブシーケンス)の統一埋め込みを学ぶために、最新の自己教師付き損失を用い、統一空間における識別埋め込みを選択するための多様性損失を提案する。
本稿では,クラスタリングのための元の時系列空間におけるシェープレットを復元する再構成損失について紹介する。
最後に、学習中のクラスタリング性能をAUTOSHAPEに知らせるため、Davies Bouldin index(DBI)を採用する。
AUTOSHAPEについて広範な実験を行った。
単変量時系列(UTS)におけるクラスタリング性能を評価するために,UCRアーカイブデータセットを用いたAUTOSHAPEと15の代表的な手法を比較した。
多変量時系列(MTS)の性能を調べるため,30UEAアーカイブデータセット上でAUTOSHAPEを5つの競合手法で評価した。
その結果、AUTOSHAPEは、比較したすべての手法の中で最高であることがわかった。
3つのUTSケーススタディと1つのMSSケーススタディにおいて,クラスタをシェープレットで解釈し,それぞれ興味深い直感を得ることができる。
関連論文リスト
- ABCDE: Application-Based Cluster Diff Evals [49.1574468325115]
それは実用性を目指しており、アイテムはアプリケーション固有の重要な値を持つことができ、クラスタリングがどちらが優れているかを判断するときに人間の判断を使うのは粗悪であり、アイテムの任意のスライスのためのメトリクスを報告できる。
クラスタリング品質の差分を測定するアプローチは、高価な地平を前もって構築し、それに関して各クラスタリングを評価する代わりに、ABCDEはクラスタリング間の実際の差分に基づいて、判定のための質問をサンプリングする。
論文 参考訳(メタデータ) (2024-07-31T08:29:35Z) - SE-shapelets: Semi-supervised Clustering of Time Series Using
Representative Shapelets [4.988132948960276]
時系列クラスタリングにおいて、局所的特徴(サブシーケンス)を用いて時系列を識別するシェープレットが有望である。
既存の時系列クラスタリング法は、非形式的サブシーケンスの大きなプールからシェープレットを発見するため、代表的なシェイプレットを捕捉できない可能性がある。
本稿では,Se-Shapelet(SE-Shapelet)法による時系列の半教師付きクラスタリングを提案する。
論文 参考訳(メタデータ) (2023-04-06T04:01:00Z) - MHCCL: Masked Hierarchical Cluster-Wise Contrastive Learning for
Multivariate Time Series [20.008535430484475]
Masked Hierarchical Cluster-wise Contrastive Learning modelを示す。
時系列の複数の潜在パーティションからなる階層構造から得られる意味情報を利用する。
教師なし時系列表現学習における最先端の手法よりも優れていることが示されている。
論文 参考訳(メタデータ) (2022-12-02T12:42:53Z) - Implicit Sample Extension for Unsupervised Person Re-Identification [97.46045935897608]
クラスタリングは、時に異なる真のアイデンティティを混ぜ合わせたり、同じアイデンティティを2つ以上のサブクラスタに分割する。
本稿では,クラスタ境界周辺のサポートサンプルを生成するために,Implicit Sample Extension (OurWholeMethod)法を提案する。
提案手法の有効性を実証し,教師なしのRe-IDに対して最先端の性能を実現する。
論文 参考訳(メタデータ) (2022-04-14T11:41:48Z) - Towards Similarity-Aware Time-Series Classification [51.2400839966489]
時系列データマイニングの基本課題である時系列分類(TSC)について検討する。
グラフニューラルネットワーク(GNN)を用いて類似情報をモデル化するフレームワークであるSimTSCを提案する。
論文 参考訳(メタデータ) (2022-01-05T02:14:57Z) - Cluster-and-Conquer: A Framework For Time-Series Forecasting [94.63501563413725]
本稿では,高次元時系列データを予測するための3段階フレームワークを提案する。
当社のフレームワークは非常に汎用的で,各ステップで時系列予測やクラスタリングが利用可能です。
単純な線形自己回帰モデルでインスタンス化されると、いくつかのベンチマークデータセットで最先端の結果が得られる。
論文 参考訳(メタデータ) (2021-10-26T20:41:19Z) - You Never Cluster Alone [150.94921340034688]
我々は、主流のコントラスト学習パラダイムをクラスタレベルのスキームに拡張し、同じクラスタに属するすべてのデータが統一された表現に寄与する。
分類変数の集合をクラスタ化代入信頼度として定義し、インスタンスレベルの学習トラックとクラスタレベルの学習トラックを関連付ける。
代入変数を再パラメータ化することで、TCCはエンドツーエンドでトレーニングされる。
論文 参考訳(メタデータ) (2021-06-03T14:59:59Z) - Hierarchical Clustering using Auto-encoded Compact Representation for
Time-series Analysis [8.660029077292346]
本稿では,学習した時系列のコンパクト表現,オートエンコードコンパクトシーケンス(AECS),階層クラスタリングアプローチを組み合わせたクラスタの識別機構を提案する。
Sequence to Sequence(seq2seq)オートエンコーダと集約型階層クラスタリングに基づくRecurrent Neural Network(RNN)を利用するアルゴリズムです。
論文 参考訳(メタデータ) (2021-01-11T08:03:57Z) - An Efficient Framework for Clustered Federated Learning [26.24231986590374]
本稿では,ユーザがクラスタに分散するフェデレーション学習(FL)の問題に対処する。
反復フェデレーションクラスタリングアルゴリズム(IFCA)を提案する。
ニューラルネットワークのような非分割問題では,アルゴリズムが効率的であることを示す。
論文 参考訳(メタデータ) (2020-06-07T08:48:59Z) - Autoencoder-based time series clustering with energy applications [0.0]
時系列クラスタリングは、データの特定の性質のため、難しい作業である。
本稿では,畳み込み型オートエンコーダとk-メノイドアルゴリズムの組み合わせによる時系列クラスタリングについて検討する。
論文 参考訳(メタデータ) (2020-02-10T10:04:29Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。