論文の概要: A Review and Evaluation of Elastic Distance Functions for Time Series
Clustering
- arxiv url: http://arxiv.org/abs/2205.15181v1
- Date: Mon, 30 May 2022 15:32:55 GMT
- ステータス: 処理完了
- システム内更新日: 2022-05-31 19:39:31.133169
- Title: A Review and Evaluation of Elastic Distance Functions for Time Series
Clustering
- Title(参考訳): 時系列クラスタリングのための弾性距離関数のレビューと評価
- Authors: Chris Holder, Matthew Middlehurst and Anthony Bagnall
- Abstract要約: 9つの一般的な弾性距離測度を記述し,k平均およびkメロイドクラスタリングとの比較を行った。
最も一般的なテクニックである動的時間ワープ(DTW)は、k平均でユークリッド距離よりも悪く、チューニングしても良くない。
我々の結論は、弾性距離測定による時系列のクラスタリングのベンチマークアルゴリズムとして、k-メドイドを用いたMSMを推奨することである。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Time series clustering is the act of grouping time series data without
recourse to a label. Algorithms that cluster time series can be classified into
two groups: those that employ a time series specific distance measure; and
those that derive features from time series. Both approaches usually rely on
traditional clustering algorithms such as $k$-means. Our focus is on distance
based time series that employ elastic distance measures, i.e. distances that
perform some kind of realignment whilst measuring distance. We describe nine
commonly used elastic distance measures and compare their performance with
k-means and k-medoids clustering. Our findings are surprising. The most popular
technique, dynamic time warping (DTW), performs worse than Euclidean distance
with k-means, and even when tuned, is no better. Using k-medoids rather than
k-means improved the clusterings for all nine distance measures. DTW is not
significantly better than Euclidean distance with k-medoids. Generally,
distance measures that employ editing in conjunction with warping perform
better, and one distance measure, the move-split-merge (MSM) method, is the
best performing measure of this study. We also compare to clustering with DTW
using barycentre averaging (DBA). We find that DBA does improve DTW k-means,
but that the standard DBA is still worse than using MSM. Our conclusion is to
recommend MSM with k-medoids as the benchmark algorithm for clustering time
series with elastic distance measures. We provide implementations, results and
guidance on reproducing results on the associated GitHub repository.
- Abstract(参考訳): 時系列クラスタリングは、ラベルを参照せずに時系列データをグループ化する行為である。
時系列をクラスタ化するアルゴリズムは、2つのグループに分類できる: 時系列固有の距離尺度を用いるアルゴリズムと、時系列から特徴を導出するアルゴリズムである。
どちらのアプローチも通常、$k$-meansのような従来のクラスタリングアルゴリズムに依存している。
我々の焦点は、弾性距離測度、すなわち距離を測りながらある種の配向を行う距離を用いる距離に基づく時系列である。
9つの一般的な弾性距離測度を記述し,k平均およびkメロイドクラスタリングとの比較を行った。
私たちの発見は驚きです。
最も一般的なテクニックであるdynamic time warping(dtw)は、k-meansとのユークリッド距離よりもパフォーマンスが悪く、チューニングしても良いものではない。
k-平均ではなくk-メディドを用いることで、9つの距離測定のクラスタリングが改善された。
DTWは、k-メドイドとのユークリッド距離ほど良くない。
一般に, 整経とともに編集を行う距離測定は良好であり, 1 つの距離測定法であるmove-split-merge-merge (msm) 法が最良である。
また,DBA(Barycentre averaging)を用いたDTWによるクラスタリングとの比較を行った。
DBA は DTW k-means を改善するが,標準 DBA は MSM よりも悪い。
我々の結論は、弾性距離測定による時系列のクラスタリングのベンチマークアルゴリズムとして、k-メディドを用いたMSMを推奨することである。
関連するGitHubリポジトリで、結果の再現に関する実装、結果、ガイダンスを提供します。
関連論文リスト
- On time series clustering with k-means [0.5530212768657544]
時系列クラスタリングアルゴリズムは、様々な方法で構成されたk平均で表されることが多い。
この変数は、k-平均はその構成に非常に敏感であることが知られているため、研究を比較するのが困難である。
本稿では,エンドツーエンドアプローチを採用したTSCLの標準ロイドモデルを提案する。
論文 参考訳(メタデータ) (2024-10-18T08:24:07Z) - Rethinking k-means from manifold learning perspective [122.38667613245151]
平均推定なしで直接データのクラスタを検出する新しいクラスタリングアルゴリズムを提案する。
具体的には,バタワースフィルタを用いてデータ点間の距離行列を構成する。
異なる視点に埋め込まれた相補的な情報をうまく活用するために、テンソルのSchatten p-norm正規化を利用する。
論文 参考訳(メタデータ) (2023-05-12T03:01:41Z) - Kernel distance measures for time series, random fields and other
structured data [71.61147615789537]
kdiffは、構造化データのインスタンス間の距離を推定するためのカーネルベースの新しい尺度である。
これはインスタンス間の自己類似性と交差類似性の両方を考慮し、距離分布の低い定量値を用いて定義される。
kdiffをクラスタリングと分類問題のための距離尺度として用いた分離性条件について,いくつかの理論的結果が得られた。
論文 参考訳(メタデータ) (2021-09-29T22:54:17Z) - SOMTimeS: Self Organizing Maps for Time Series Clustering and its
Application to Serious Illness Conversations [3.2689702143620147]
我々はSOMTimeS(TIMEシリーズの自己組織化マップ)と呼ばれるDTWに基づく新しいクラスタリング手法を提案する。
他のDTWベースのクラスタリングアルゴリズムよりも高速で、パフォーマンスも同等です。
我々は,大規模医療コホート研究の一環として収集した自然言語会話データにSOMtimeSを適用した。
論文 参考訳(メタデータ) (2021-08-26T00:18:25Z) - Robust Trimmed k-means [70.88503833248159]
本稿では,外乱点とクラスタポイントを同時に識別するRobust Trimmed k-means (RTKM)を提案する。
RTKMは他の方法と競合することを示す。
論文 参考訳(メタデータ) (2021-08-16T15:49:40Z) - Efficient Sparse Spherical k-Means for Document Clustering [13.217173710137363]
k に関する球k-平均のスケーラビリティを向上させるための効率的なインデックス構造を提案する。
提案手法は,入力ベクトルの間隔とk-Meansの収束挙動を利用して,各反復における比較回数を大幅に削減する。
論文 参考訳(メタデータ) (2021-07-30T12:02:33Z) - (k, l)-Medians Clustering of Trajectories Using Continuous Dynamic Time
Warping [57.316437798033974]
本研究では,トラジェクトリの集中型クラスタリングの問題について考察する。
我々はDTWの連続バージョンを距離測定として使用することを提案し、これをCDTW(Continuous dynamic time warping)と呼ぶ。
一連の軌道から中心を計算し、その後反復的に改善する実践的な方法を示す。
論文 参考訳(メタデータ) (2020-12-01T13:17:27Z) - Differentially Private Clustering: Tight Approximation Ratios [57.89473217052714]
基本的なクラスタリング問題に対して,効率的な微分プライベートアルゴリズムを提案する。
この結果から,SampleとAggregateのプライバシーフレームワークのアルゴリズムの改善が示唆された。
1-Clusterアルゴリズムで使用されるツールの1つは、ClosestPairのより高速な量子アルゴリズムを適度な次元で得るために利用できる。
論文 参考訳(メタデータ) (2020-08-18T16:22:06Z) - Fast and Eager k-Medoids Clustering: O(k) Runtime Improvement of the
PAM, CLARA, and CLARANS Algorithms [0.0]
Partitioning Around Medoids (PAM) は非ユークリッドデータをクラスタリングするためのアルゴリズムである。
本稿では,アルゴリズムの第2フェーズ(SWAP)でO(k)倍の高速化を実現するPAMの修正を提案する。
k=100,200の実データを用いた実験では,元のPAM SWAPアルゴリズムと比較して,それぞれ458倍のスピードアップを観測した。
論文 参考訳(メタデータ) (2020-08-12T08:37:50Z) - Ball k-means [53.89505717006118]
Ball k-meansアルゴリズムは、ポイントセントロイド距離計算の削減に集中して、クラスタを記述するためにボールを使用する。
高速、余分なパラメータなし、単純設計のボールk平均アルゴリズムは、素早いk平均アルゴリズムを全面的に置き換える。
論文 参考訳(メタデータ) (2020-05-02T10:39:26Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。