論文の概要: Deep Declarative Dynamic Time Warping for End-to-End Learning of
Alignment Paths
- arxiv url: http://arxiv.org/abs/2303.10778v1
- Date: Sun, 19 Mar 2023 21:58:37 GMT
- ステータス: 処理完了
- システム内更新日: 2023-03-21 17:18:02.487934
- Title: Deep Declarative Dynamic Time Warping for End-to-End Learning of
Alignment Paths
- Title(参考訳): 配向経路のエンドツーエンド学習のための深部宣言動的時間ワープ
- Authors: Ming Xu and Sourav Garg and Michael Milford and Stephen Gould
- Abstract要約: 本稿では、動的時間ワープ(DTW)による時間的アライメントステップを含む時系列データのエンドツーエンド学習モデルについて述べる。
そこで我々は,2レベル最適化とDecDTWと呼ばれる深層宣言ネットワークに基づくDTW層を提案する。
この特性は、下流損失関数が最適アライメントパス自身で定義されるアプリケーションに特に有用であることを示す。
- 参考スコア(独自算出の注目度): 54.53208538517505
- License: http://creativecommons.org/licenses/by-sa/4.0/
- Abstract: This paper addresses learning end-to-end models for time series data that
include a temporal alignment step via dynamic time warping (DTW). Existing
approaches to differentiable DTW either differentiate through a fixed warping
path or apply a differentiable relaxation to the min operator found in the
recursive steps used to solve the DTW problem. We instead propose a DTW layer
based around bi-level optimisation and deep declarative networks, which we name
DecDTW. By formulating DTW as a continuous, inequality constrained optimisation
problem, we can compute gradients for the solution of the optimal alignment
(with respect to the underlying time series) using implicit differentiation. An
interesting byproduct of this formulation is that DecDTW outputs the optimal
warping path between two time series as opposed to a soft approximation,
recoverable from Soft-DTW. We show that this property is particularly useful
for applications where downstream loss functions are defined on the optimal
alignment path itself. This naturally occurs, for instance, when learning to
improve the accuracy of predicted alignments against ground truth alignments.
We evaluate DecDTW on two such applications, namely the audio-to-score
alignment task in music information retrieval and the visual place recognition
task in robotics, demonstrating state-of-the-art results in both.
- Abstract(参考訳): 本稿では,動的時間ワープ(DTW)による時間的アライメントステップを含む時系列データのエンドツーエンド学習モデルについて述べる。
既存の微分可能DTWに対するアプローチは、固定されたワープパスを通して微分するか、DTW問題を解決するために使われる再帰的なステップにあるmin演算子に微分可能緩和を適用するかのいずれかである。
代わりに、二レベル最適化とDecDTWと呼ばれる深層宣言ネットワークに基づくDTW層を提案する。
DTWを連続的不等式制約最適化問題として定式化することにより、暗黙の微分を用いて最適アライメントの解の勾配を計算することができる。
この定式化の興味深い副産物は、ソフトDTWから回復可能なソフト近似とは対照的に、DecDTWが2つの時系列間の最適なワープ経路を出力することである。
この性質は, 最適アライメント経路上で下流損失関数が定義されるアプリケーションにとって特に有用であることを示す。
これは、例えば、予測されたアライメントと地上の真理アライメントの精度を改善することを学ぶときに自然に起こる。
我々は,音楽情報検索における音声とスコアのアライメントタスクとロボット工学における視覚位置認識タスクという2つの応用についてdecdtwを評価した。
関連論文リスト
- OTW: Optimal Transport Warping for Time Series [75.69837166816501]
動的時間温暖化(DTW)は時系列間の距離を測定するための実用的な選択肢となっている。
最適アライメント行列を正確に計算する必要がある場合、それは避けられない二次時間複雑性に悩まされる。
我々は、OTW(Optimal Transport Warping)と呼ばれる、最適輸送フレームワークに基づく時系列データのための新しいメトリクスを導入する。
論文 参考訳(メタデータ) (2023-06-01T12:45:00Z) - Approximating DTW with a convolutional neural network on EEG data [9.409281517596396]
動的時間ラッピング(DTW)の高速かつ微分可能な近似法を提案する。
提案手法は,計算効率が向上した他のDTW主近似と同等以上の精度が得られることを示す。
論文 参考訳(メタデータ) (2023-01-30T13:27:47Z) - Improved Convergence Rate of Stochastic Gradient Langevin Dynamics with
Variance Reduction and its Application to Optimization [50.83356836818667]
勾配ランゲヴィン・ダイナミクスは非エプス最適化問題を解くための最も基本的なアルゴリズムの1つである。
本稿では、このタイプの2つの変種、すなわち、分散還元ランジュバンダイナミクスと再帰勾配ランジュバンダイナミクスを示す。
論文 参考訳(メタデータ) (2022-03-30T11:39:00Z) - A Two-Time-Scale Stochastic Optimization Framework with Applications in Control and Reinforcement Learning [13.908826484332282]
最適化問題の解法として,新しい2段階勾配法を提案する。
最初の貢献は、提案した2時間スケール勾配アルゴリズムの有限時間複雑性を特徴づけることである。
我々は、強化学習における勾配に基づく政策評価アルゴリズムに適用する。
論文 参考訳(メタデータ) (2021-09-29T23:15:23Z) - Nesterov Accelerated ADMM for Fast Diffeomorphic Image Registration [63.15453821022452]
ディープラーニングに基づくアプローチの最近の発展は、DiffIRのサブ秒間実行を実現している。
本稿では,中間定常速度場を機能的に構成する簡易な反復スキームを提案する。
次に、任意の順序の正規化項を用いて、これらの速度場に滑らかさを課す凸最適化モデルを提案する。
論文 参考訳(メタデータ) (2021-09-26T19:56:45Z) - Drop-DTW: Aligning Common Signal Between Sequences While Dropping
Outliers [33.174893836302005]
そこで本研究では,一致から外れ値要素を自動的に削除しながら,シーケンス間の共通信号を整列する新しいアルゴリズムDrop-DTWを提案する。
実験の結果,Drop-DTWはシーケンス検索に頑健な類似性尺度であり,多様なアプリケーションに対するトレーニング損失としての有効性を示した。
論文 参考訳(メタデータ) (2021-08-26T18:52:35Z) - TC-DTW: Accelerating Multivariate Dynamic Time Warping Through Triangle
Inequality and Point Clustering [6.502892821109196]
今日最もよく使われているアルゴリズムは17年前に開発されたアルゴリズムである。
tc-dtwと名付けられた新しいソリューションは、三角不等式と点クラスタリングをアルゴリズム設計に導入する。
DTWをベースとした近接探索実験では、新しい解は最大98%(平均60%)のDTW距離計算を回避し、最大25倍(平均7.5倍)のスピードアップをもたらす。
論文 参考訳(メタデータ) (2021-01-15T16:38:28Z) - Single-Timescale Stochastic Nonconvex-Concave Optimization for Smooth
Nonlinear TD Learning [145.54544979467872]
本稿では,各ステップごとに1つのデータポイントしか必要としない2つの単一スケールシングルループアルゴリズムを提案する。
本研究の結果は, 同時一次および二重側収束の形で表される。
論文 参考訳(メタデータ) (2020-08-23T20:36:49Z) - Cogradient Descent for Bilinear Optimization [124.45816011848096]
双線形問題に対処するために、CoGDアルゴリズム(Cogradient Descent Algorithm)を導入する。
一方の変数は、他方の変数との結合関係を考慮し、同期勾配降下をもたらす。
本アルゴリズムは,空間的制約下での1変数の問題を解くために応用される。
論文 参考訳(メタデータ) (2020-06-16T13:41:54Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。