論文の概要: Parameterizing the cost function of Dynamic Time Warping with
application to time series classification
- arxiv url: http://arxiv.org/abs/2301.10350v2
- Date: Wed, 29 Mar 2023 03:16:44 GMT
- ステータス: 処理完了
- システム内更新日: 2023-03-30 17:58:28.651993
- Title: Parameterizing the cost function of Dynamic Time Warping with
application to time series classification
- Title(参考訳): 動的時間ウォーピングのコスト関数のパラメータ化と時系列分類への応用
- Authors: Matthieu Herrmann, Chang Wei Tan, Geoffrey I. Webb
- Abstract要約: ガンマ値の高次値はより大きい対の差に重みを与える一方、低い値はより小さい対の差に重みを与えることを示す。
トレーニングガンマは、隣接するDTWと近接森林分類器の両方の精度を著しく向上することを示した。
- 参考スコア(独自算出の注目度): 4.752559512511424
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Dynamic Time Warping (DTW) is a popular time series distance measure that
aligns the points in two series with one another. These alignments support
warping of the time dimension to allow for processes that unfold at differing
rates. The distance is the minimum sum of costs of the resulting alignments
over any allowable warping of the time dimension. The cost of an alignment of
two points is a function of the difference in the values of those points. The
original cost function was the absolute value of this difference. Other cost
functions have been proposed. A popular alternative is the square of the
difference. However, to our knowledge, this is the first investigation of both
the relative impacts of using different cost functions and the potential to
tune cost functions to different tasks. We do so in this paper by using a
tunable cost function {\lambda}{\gamma} with parameter {\gamma}. We show that
higher values of {\gamma} place greater weight on larger pairwise differences,
while lower values place greater weight on smaller pairwise differences. We
demonstrate that training {\gamma} significantly improves the accuracy of both
the DTW nearest neighbor and Proximity Forest classifiers.
- Abstract(参考訳): ダイナミック・タイム・ワーピング (dynamic time warping, dtw) は、2シリーズの点を互いに整列させる一般的な時系列距離尺度である。
これらのアライメントは、異なる速度で展開するプロセスを可能にするために時間次元のウォーピングをサポートする。
距離は、時間次元の許容可能なワープに対して得られるアライメントの最小コストである。
2つの点のアライメントのコストは、それらの点の値の差の関数である。
原価関数はこの差の絶対値であった。
他のコスト関数も提案されている。
人気があるのは、その違いの正方形だ。
しかし、我々の知る限り、これは異なるコスト関数を使用することによる相対的な影響と、異なるタスクにコスト関数をチューニングする可能性の両方についての最初の調査である。
この論文では、パラメータ {\gamma} を持つチューナブルコスト関数 {\lambda}{\gamma} を用いることで、そうする。
高い値がより大きい対の差に重みを置くのに対し、低い値はより小さい対の差に重みを置くことを示す。
我々は、DTW近傍と近接森林分類器の両方の精度を大幅に向上させることを実証した。
関連論文リスト
- Relative-Translation Invariant Wasserstein Distance [82.6068808353647]
距離の新しい族、相対翻訳不変ワッサーシュタイン距離(RW_p$)を導入する。
我々は、$RW_p 距離もまた、分布変換に不変な商集合 $mathcalP_p(mathbbRn)/sim$ 上で定義される実距離測度であることを示す。
論文 参考訳(メタデータ) (2024-09-04T03:41:44Z) - Deep Declarative Dynamic Time Warping for End-to-End Learning of
Alignment Paths [54.53208538517505]
本稿では、動的時間ワープ(DTW)による時間的アライメントステップを含む時系列データのエンドツーエンド学習モデルについて述べる。
そこで我々は,2レベル最適化とDecDTWと呼ばれる深層宣言ネットワークに基づくDTW層を提案する。
この特性は、下流損失関数が最適アライメントパス自身で定義されるアプリケーションに特に有用であることを示す。
論文 参考訳(メタデータ) (2023-03-19T21:58:37Z) - Asynchronous Training Schemes in Distributed Learning with Time Delay [17.259708772713164]
分散ディープラーニングの文脈では、固定重みや勾配の問題によってアルゴリズムの性能が低下する可能性がある。
本稿では,静的な重みや勾配の問題に対処する別のアプローチを提案する。
また,PC-ASGDの実用版として,トレードオフパラメータの決定を支援する条件を適用して提案する。
論文 参考訳(メタデータ) (2022-08-28T07:14:59Z) - Sharper Convergence Guarantees for Asynchronous SGD for Distributed and
Federated Learning [77.22019100456595]
通信周波数の異なる分散計算作業者のトレーニングアルゴリズムを示す。
本研究では,より厳密な収束率を$mathcalO!!(sigma2-2_avg!)とする。
また,不均一性の項は,作業者の平均遅延によっても影響されることを示した。
論文 参考訳(メタデータ) (2022-06-16T17:10:57Z) - Amercing: An Intuitive, Elegant and Effective Constraint for Dynamic
Time Warping [6.063782572064742]
Amerced Dynamic Time Warping (ADTW) は、直感的で直感的な新しいDTW変種で、固定的な加算コストでワープの行為を罰する。
直感的な結果を得るためにパラメータ化を行う方法を示し、標準時系列分類ベンチマークでその有用性を示す。
論文 参考訳(メタデータ) (2021-11-26T05:11:04Z) - Two-phase Optimization of Binary Sequences with Low Peak Sidelobe Level
Value [1.5990720051907859]
2つのフィットネス関数は、ピークサイドローブレベルが低いシーケンスを見つけるために使用される。
提案アルゴリズムは長さ$L = 2m - 1$,$14 lem le 20$で試験された。
論文 参考訳(メタデータ) (2021-06-30T13:59:55Z) - Scalable Frank-Wolfe on Generalized Self-concordant Functions via Simple Steps [66.88729048402082]
一般化自己一致は、多くの学習問題の目的関数に存在する重要な特性である。
検討対象の領域が一様凸あるいは多面体である場合など,様々な症例に対する収束率の改善を示す。
論文 参考訳(メタデータ) (2021-05-28T15:26:36Z) - Temporal Difference Learning as Gradient Splitting [15.321579527891457]
勾配降下の収束証明は時間差学習にほぼ冗長に適用可能であることを示す。
値関数の平均を推定するTD学習における小さな変化は、1/(1-ガンマ)$1の乗算項のみを無作為に無視する収束時間を持つことを示す。
論文 参考訳(メタデータ) (2020-10-27T22:50:39Z) - Differentiable Divergences Between Time Series [34.60983018798683]
可変サイズの時系列間の相違を解消するために,ソフトDTW発散と呼ばれる新しい発散法を提案する。
2つの時系列が等しい場合に限って、非負で最小化されることが示される。
また、エントロピーバイアスをさらに除去することで、新たな「シャープ」変種を提案する。
論文 参考訳(メタデータ) (2020-10-16T12:45:13Z) - Aligning Time Series on Incomparable Spaces [83.8261699057419]
本稿では,Gromov dynamic time warping (GDTW)を提案する。
比較不可能な空間に居住する時系列の調整,合成,比較を行う上での有効性を実証する。
論文 参考訳(メタデータ) (2020-06-22T22:19:28Z) - Fast and Robust Comparison of Probability Measures in Heterogeneous
Spaces [62.35667646858558]
本稿では, アンカー・エナジー (AE) とアンカー・ワッサースタイン (AW) 距離を紹介する。
我々の主な貢献は、素案実装が立方体となる対数四重項時間でAEを正確に計算するスイープラインアルゴリズムを提案することである。
AE と AW は,一般的な GW 近似の計算コストのごく一部において,様々な実験環境において良好に動作することを示す。
論文 参考訳(メタデータ) (2020-02-05T03:09:23Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。