論文の概要: Residual Networks as Flows of Velocity Fields for Diffeomorphic Time
Series Alignment
- arxiv url: http://arxiv.org/abs/2106.11911v1
- Date: Tue, 22 Jun 2021 16:38:48 GMT
- ステータス: 処理完了
- システム内更新日: 2021-06-23 14:54:17.457904
- Title: Residual Networks as Flows of Velocity Fields for Diffeomorphic Time
Series Alignment
- Title(参考訳): 拡散型時系列アライメントのための速度場の流れとしての残留ネットワーク
- Authors: Hao Huang, Boulbaba Ben Amor, Xichan Lin, Fan Zhu, Yi Fang
- Abstract要約: 非線形(大規模な)時間ゆらぎは、時系列解析における厄介な原因である。
本稿では,時間列アライメントと連立時間列アライメントのための微分型時間変換器ネットワークを提案する。
我々のResNet-TWは、協調アライメントと分類において競争性能を達成する。
- 参考スコア(独自算出の注目度): 41.66010308405784
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Non-linear (large) time warping is a challenging source of nuisance in
time-series analysis. In this paper, we propose a novel diffeomorphic temporal
transformer network for both pairwise and joint time-series alignment. Our
ResNet-TW (Deep Residual Network for Time Warping) tackles the alignment
problem by compositing a flow of incremental diffeomorphic mappings. Governed
by the flow equation, our Residual Network (ResNet) builds smooth, fluid and
regular flows of velocity fields and consequently generates smooth and
invertible transformations (i.e. diffeomorphic warping functions). Inspired by
the elegant Large Deformation Diffeomorphic Metric Mapping (LDDMM) framework,
the final transformation is built by the flow of time-dependent vector fields
which are none other than the building blocks of our Residual Network. The
latter is naturally viewed as an Eulerian discretization schema of the flow
equation (an ODE). Once trained, our ResNet-TW aligns unseen data by a single
inexpensive forward pass. As we show in experiments on both univariate (84
datasets from UCR archive) and multivariate time-series (MSR Action-3D,
Florence-3D and MSR Daily Activity), ResNet-TW achieves competitive performance
in joint alignment and classification.
- Abstract(参考訳): 非線形(大きな)時間ワーピングは、時系列分析における迷惑の根源である。
本稿では,ペアワイズとジョイント時系列のアライメントを両立させる新しい時間的トランスフォーマーネットワークを提案する。
我々のResNet-TW(Deep Residual Network for Time Warping)は、漸進的な微分写像のフローを構成することでアライメント問題に取り組む。
我々のResidual Network(ResNet)は流速場の滑らかで流動的で正規な流れを構築し、その結果、滑らかで可逆な変換(すなわち、可逆変換)を生成する。
diffeomorphic warping function) の略。
エレガントな大変形2相距離マッピング(lddmm)フレームワークに触発されて、最終的な変換は、残余ネットワークのビルディングブロック以外にない時間依存ベクトル場の流れによって構築されます。
後者は自然に流れ方程式(ode)のオイラー離散化スキーマと見なされる。
トレーニングが終わると、ResNet-TWは目に見えないデータを単一の安価なフォワードパスで調整します。
単変量(UCRアーカイブから84データセット)と多変量時系列(MSR Action-3D, Florence-3D, MSR Daily Activity)での実験を行ったところ、ResNet-TWは協調アライメントと分類において競争力を発揮することがわかった。
関連論文リスト
- TCCT-Net: Two-Stream Network Architecture for Fast and Efficient Engagement Estimation via Behavioral Feature Signals [58.865901821451295]
本稿では,新しい2ストリーム機能融合 "Tensor-Convolution and Convolution-Transformer Network" (TCCT-Net) アーキテクチャを提案する。
時間空間領域における意味のあるパターンをよりよく学習するために、ハイブリッド畳み込み変換器を統合する「CT」ストリームを設計する。
並行して、時間周波数領域からリッチなパターンを効率的に抽出するために、連続ウェーブレット変換(CWT)を用いて情報を2次元テンソル形式で表現する「TC」ストリームを導入する。
論文 参考訳(メタデータ) (2024-04-15T06:01:48Z) - ConvTimeNet: A Deep Hierarchical Fully Convolutional Model for
Multivariate Time Series Analysis [8.560776357590088]
ConvTimeNetは、時系列解析のための汎用モデルとして設計された、新しい階層的完全畳み込みネットワークである。
結果は、ほとんどの状況において、有効性という点で、一貫して強いベースラインを上回りました。
論文 参考訳(メタデータ) (2024-03-03T12:05:49Z) - Diffeomorphic Transformations for Time Series Analysis: An Efficient
Approach to Nonlinear Warping [0.0]
多くの分野にわたる時間データの拡散と普遍性は、類似性、分類、クラスタリング手法への関心を喚起した。
ユークリッドのような伝統的な距離測度は、時間に依存したデータの性質のため適していない。
この論文は、パラメトリックおよび微分同相のワープ変換を用いる新しい弾性アライメント法を提案する。
論文 参考訳(メタデータ) (2023-09-25T10:51:47Z) - TimeMAE: Self-Supervised Representations of Time Series with Decoupled
Masked Autoencoders [55.00904795497786]
トランスフォーマネットワークに基づく転送可能な時系列表現を学習するための,新しい自己教師型パラダイムであるTimeMAEを提案する。
TimeMAEは双方向符号化方式を用いて時系列の豊富な文脈表現を学習する。
新たに挿入されたマスク埋め込みによって生じる不一致を解消するため、分離されたオートエンコーダアーキテクチャを設計する。
論文 参考訳(メタデータ) (2023-03-01T08:33:16Z) - FormerTime: Hierarchical Multi-Scale Representations for Multivariate
Time Series Classification [53.55504611255664]
formerTimeは、多変量時系列分類タスクの分類能力を改善する階層的表現モデルである。
1)時系列データから階層的なマルチスケール表現を学習し、(2)トランスフォーマーと畳み込みネットワークの強さを継承し、(3)自己維持メカニズムによって引き起こされる効率の課題に取り組む。
論文 参考訳(メタデータ) (2023-02-20T07:46:14Z) - HyperTime: Implicit Neural Representation for Time Series [131.57172578210256]
暗黙の神経表現(INR)は、データの正確で解像度に依存しないエンコーディングを提供する強力なツールとして最近登場した。
本稿では、INRを用いて時系列の表現を分析し、再構成精度とトレーニング収束速度の点で異なるアクティベーション関数を比較した。
本稿では,INRを利用して時系列データセット全体の圧縮潜在表現を学習するハイパーネットワークアーキテクチャを提案する。
論文 参考訳(メタデータ) (2022-08-11T14:05:51Z) - ResNet-LDDMM: Advancing the LDDMM Framework Using Deep Residual Networks [86.37110868126548]
本研究では,eulerの離散化スキームに基づく非定常ode(フロー方程式)の解法として,深層残留ニューラルネットワークを用いた。
複雑なトポロジー保存変換の下での3次元形状の多種多様な登録問題について述べる。
論文 参考訳(メタデータ) (2021-02-16T04:07:13Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。