論文の概要: Learning Discriminative Prototypes with Dynamic Time Warping
- arxiv url: http://arxiv.org/abs/2103.09458v1
- Date: Wed, 17 Mar 2021 06:11:11 GMT
- ステータス: 処理完了
- システム内更新日: 2021-03-18 12:58:53.309174
- Title: Learning Discriminative Prototypes with Dynamic Time Warping
- Title(参考訳): 動的時間ワープによる識別的プロトタイプの学習
- Authors: Xiaobin Chang, Frederick Tung, Greg Mori
- Abstract要約: 時間的認識タスクのためのクラス固有の識別プロトタイプを学習する新しい手法であるDP-DTWを提案する。
DP-DTWは時系列分類ベンチマークにおいて従来のDTWよりも優れた性能を示す。
- 参考スコア(独自算出の注目度): 49.03785686097989
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Dynamic Time Warping (DTW) is widely used for temporal data processing.
However, existing methods can neither learn the discriminative prototypes of
different classes nor exploit such prototypes for further analysis. We propose
Discriminative Prototype DTW (DP-DTW), a novel method to learn class-specific
discriminative prototypes for temporal recognition tasks. DP-DTW shows superior
performance compared to conventional DTWs on time series classification
benchmarks. Combined with end-to-end deep learning, DP-DTW can handle
challenging weakly supervised action segmentation problems and achieves state
of the art results on standard benchmarks. Moreover, detailed reasoning on the
input video is enabled by the learned action prototypes. Specifically, an
action-based video summarization can be obtained by aligning the input sequence
with action prototypes.
- Abstract(参考訳): Dynamic Time Warping (DTW) は時間データ処理に広く使われている。
しかし、既存の手法では、異なるクラスの識別プロトタイプを学習することも、そのようなプロトタイプをさらなる分析に利用することもできない。
時間的認識タスクのためのクラス固有の識別プロトタイプを学習する新しい手法であるDP-DTWを提案する。
DP-DTWは時系列分類ベンチマークにおいて従来のDTWよりも優れた性能を示す。
エンドツーエンドのディープラーニングと組み合わせることで、DP-DTWは、弱い教師付きアクションセグメンテーション問題に対処し、標準ベンチマークで技術結果の状態を達成できる。
さらに、学習したアクションプロトタイプによって、入力ビデオの詳細な推論が可能となる。
具体的には、入力シーケンスをアクションプロトタイプと整合させることにより、アクションベースのビデオ要約を得ることができる。
関連論文リスト
- Deep Attentive Time Warping [22.411355064531143]
タスク適応時間ワープのためのニューラルネットワークモデルを提案する。
我々は、バイパーティイトアテンションモデルと呼ばれるアテンションモデルを用いて、明示的な時間ゆらぎメカニズムを開発する。
DTWをワープに使用する他の学習可能なモデルとは異なり、我々のモデルは2つの時系列間のすべての局所的対応を予測する。
論文 参考訳(メタデータ) (2023-09-13T04:49:49Z) - A Prototypical Semantic Decoupling Method via Joint Contrastive Learning
for Few-Shot Name Entity Recognition [24.916377682689955]
名前付きエンティティ認識(NER)は、わずかにラベル付きインスタンスに基づいて名前付きエンティティを識別することを目的としている。
連立コントラスト学習(PSDC)を用いた数発NERのためのプロトタイプセマンティックデカップリング手法を提案する。
2つの数ショットのNERベンチマークによる実験結果から、PSDCは全体の性能において従来のSOTA法よりも一貫して優れていたことが示されている。
論文 参考訳(メタデータ) (2023-02-27T09:20:00Z) - Multimodal Prototype-Enhanced Network for Few-Shot Action Recognition [40.329190454146996]
MultimOdal PRototype-ENhanced Network (MORN)は、ラベルテキストの意味情報をマルチモーダル情報として利用してプロトタイプを強化する。
我々は4つの一般的な数発のアクション認識データセットについて広範な実験を行った。
論文 参考訳(メタデータ) (2022-12-09T14:24:39Z) - Automatically Discovering Novel Visual Categories with Self-supervised
Prototype Learning [68.63910949916209]
本稿では,大規模な画像収集において未知のカテゴリを識別することを目的とした,新しいカテゴリ発見(NCD)の課題に取り組む。
本稿では,プロトタイプ表現学習とプロトタイプ自己学習という,2つの主要な段階からなる適応型プロトタイプ学習手法を提案する。
本研究では,4つのベンチマークデータセットについて広範な実験を行い,提案手法の有効性とロバスト性を示す。
論文 参考訳(メタデータ) (2022-08-01T16:34:33Z) - Fine-grained Temporal Contrastive Learning for Weakly-supervised
Temporal Action Localization [87.47977407022492]
本稿では,シーケンス・ツー・シーケンスの区別を文脈的に比較することで学習が,弱い教師付き行動の局所化に不可欠な帰納的バイアスをもたらすことを論じる。
微分可能な動的プログラミングの定式化の下では、FSD(Fen-fine Sequence Distance)とLCS(Longest Common Subsequence)の2つの相補的コントラストが設計されている。
提案手法は,2つのベンチマークにおいて最先端の性能を実現する。
論文 参考訳(メタデータ) (2022-03-31T05:13:50Z) - Dual Prototypical Contrastive Learning for Few-shot Semantic
Segmentation [55.339405417090084]
本稿では,FSSタスクに適合する2つの特徴的コントラスト学習手法を提案する。
第一の考え方は、プロトタイプの特徴空間におけるクラス内距離を減少させながら、クラス間距離を増やすことで、プロトタイプをより差別的にすることである。
提案手法は,PASCAL-5iおよびCOCO-20iデータセット上で,最先端のFSS手法よりも優れていることを示す。
論文 参考訳(メタデータ) (2021-11-09T08:14:50Z) - Few-shot Action Recognition with Prototype-centered Attentive Learning [88.10852114988829]
2つの新しい構成要素からなるプロトタイプ中心型注意学習(pal)モデル。
まず,従来のクエリ中心学習目標を補完するために,プロトタイプ中心のコントラスト学習損失を導入する。
第二に、PALは注意深いハイブリッド学習機構を統合しており、アウトレーヤの負の影響を最小限に抑えることができる。
論文 参考訳(メタデータ) (2021-01-20T11:48:12Z) - Prototypical Contrast and Reverse Prediction: Unsupervised Skeleton
Based Action Recognition [12.463955174384457]
PCRP(Prototypeal Contrast and Reverse Prediction)と呼ばれる新しいフレームワークを提案する。
PCRPは逆逐次予測を生成し、低レベル情報と高レベルパターンを学習する。
また、アクションプロトタイプを作成して、シーケンス間で共有されるセマンティックな類似性を暗黙的にエンコードする。
論文 参考訳(メタデータ) (2020-11-14T08:04:23Z) - Prototypical Contrastive Learning of Unsupervised Representations [171.3046900127166]
原型コントラスト学習(Prototypeal Contrastive Learning, PCL)は、教師なし表現学習法である。
PCLは暗黙的にデータのセマンティック構造を学習された埋め込み空間にエンコードする。
PCLは、複数のベンチマークで最先端のインスタンスワイド・コントラスト学習法より優れている。
論文 参考訳(メタデータ) (2020-05-11T09:53:36Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。