論文の概要: Representation Learning via Global Temporal Alignment and
Cycle-Consistency
- arxiv url: http://arxiv.org/abs/2105.05217v1
- Date: Tue, 11 May 2021 17:34:04 GMT
- ステータス: 処理完了
- システム内更新日: 2021-05-12 13:53:50.829515
- Title: Representation Learning via Global Temporal Alignment and
Cycle-Consistency
- Title(参考訳): グローバル時間アライメントとサイクル一貫性による表現学習
- Authors: Isma Hadji, Konstantinos G. Derpanis, Allan D. Jepson
- Abstract要約: 時間列の整合に基づく表現学習のための弱教師付き手法を提案する。
従来方式に比べて大幅な性能向上を報告しています。
さらに、時間アライメントフレームワークの2つのアプリケーション、すなわち3Dポーズ再構築ときめ細かいオーディオ/ビジュアル検索を報告します。
- 参考スコア(独自算出の注目度): 20.715813546383178
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We introduce a weakly supervised method for representation learning based on
aligning temporal sequences (e.g., videos) of the same process (e.g., human
action). The main idea is to use the global temporal ordering of latent
correspondences across sequence pairs as a supervisory signal. In particular,
we propose a loss based on scoring the optimal sequence alignment to train an
embedding network. Our loss is based on a novel probabilistic path finding view
of dynamic time warping (DTW) that contains the following three key features:
(i) the local path routing decisions are contrastive and differentiable, (ii)
pairwise distances are cast as probabilities that are contrastive as well, and
(iii) our formulation naturally admits a global cycle consistency loss that
verifies correspondences. For evaluation, we consider the tasks of fine-grained
action classification, few shot learning, and video synchronization. We report
significant performance increases over previous methods. In addition, we report
two applications of our temporal alignment framework, namely 3D pose
reconstruction and fine-grained audio/visual retrieval.
- Abstract(参考訳): 我々は、同じプロセス(例えば、人間の行動)の時間的シーケンス(例えば、ビデオ)の整列に基づく表現学習の弱教師付き手法を導入する。
主なアイデアは、シーケンスペアにまたがる潜在対応のグローバル時間順序を監督信号として使うことである。
特に,埋め込みネットワークを学習するための最適シーケンスアライメントのスコアリングに基づく損失を提案する。
我々の損失は、(i)局所経路経路決定は対照的で微分可能であり、(ii)対角距離は対照的な確率としてキャストされ、(iii)我々の定式化は、対応性を検証するグローバルサイクル整合性損失を自然に認めている、という3つの重要な特徴を含む、動的時間ワープ(DTW)の新たな確率論的経路発見ビューに基づいている。
評価のために,細粒度動作分類,ショット学習,映像同期の課題について検討する。
これまでの方法に比べて大幅な性能向上が報告されている。
さらに,我々の時間的アライメントフレームワークである3次元ポーズ再構成と細粒度音声・視覚検索の2つの応用について報告する。
関連論文リスト
- Self-Supervised Contrastive Learning for Videos using Differentiable Local Alignment [3.2873782624127834]
時間的映像系列の整列に基づく自己教師付き表現学習法を提案する。
局所的アライメント・アライメント・アライメント・アライメント・アライメント・アライメント・アライメント・アライメント(LAC)・アライメント・アライメント・アライメント・アライメント・アライメント・アライメント・アライメント・アライメント・アライメント・アライメント・アライメント・アライメント・アライメント・アライメント・アライメント・アライメント・アライメント・アライメント・
学習した表現は、既存の行動認識タスクにおける最先端のアプローチよりも優れていることを示す。
論文 参考訳(メタデータ) (2024-09-06T20:32:53Z) - Bidirectional Decoding: Improving Action Chunking via Closed-Loop Resampling [51.38330727868982]
双方向デコーディング(BID)は、クローズドループ操作で動作チャンキングをブリッジするテスト時間推論アルゴリズムである。
BIDは、7つのシミュレーションベンチマークと2つの実世界のタスクにまたがって、最先端の2つの生成ポリシーの性能を向上させることを示す。
論文 参考訳(メタデータ) (2024-08-30T15:39:34Z) - Intensity Profile Projection: A Framework for Continuous-Time
Representation Learning for Dynamic Networks [50.2033914945157]
本稿では、連続時間動的ネットワークデータのための表現学習フレームワークIntensity Profile Projectionを提案する。
このフレームワークは3つの段階から構成される: 対の強度関数を推定し、強度再構成誤差の概念を最小化する射影を学習する。
さらに、推定軌跡の誤差を厳密に制御する推定理論を開発し、その表現がノイズに敏感な追従解析に利用できることを示す。
論文 参考訳(メタデータ) (2023-06-09T15:38:25Z) - Understanding and Constructing Latent Modality Structures in Multi-modal
Representation Learning [53.68371566336254]
優れたパフォーマンスの鍵は、完全なモダリティアライメントではなく、有意義な潜在モダリティ構造にある、と我々は主張する。
具体的には,1)モダリティ内正規化のための深い特徴分離損失,2)モダリティ間正規化のためのブラウン橋損失,3)モダリティ内正規化およびモダリティ間正規化のための幾何学的整合損失を設計する。
論文 参考訳(メタデータ) (2023-03-10T14:38:49Z) - Skeleton-based Action Recognition through Contrasting Two-Stream
Spatial-Temporal Networks [11.66009967197084]
本稿では,空間的および時間的モジュールを並列に融合するContrastive GCN-Transformer Network(ConGT)を提案する。
我々は3つのベンチマークデータセットで実験を行い、このモデルが動作認識における最先端のパフォーマンスを達成することを示す。
論文 参考訳(メタデータ) (2023-01-27T02:12:08Z) - Temporal-Viewpoint Transportation Plan for Skeletal Few-shot Action
Recognition [38.27785891922479]
Joint tEmporalとcAmera viewpoiNt alIgnmEntによる3Dスケルトンに基づく動作認識のためのFew-shot Learning Pipeline
論文 参考訳(メタデータ) (2022-10-30T11:46:38Z) - Fine-grained Temporal Contrastive Learning for Weakly-supervised
Temporal Action Localization [87.47977407022492]
本稿では,シーケンス・ツー・シーケンスの区別を文脈的に比較することで学習が,弱い教師付き行動の局所化に不可欠な帰納的バイアスをもたらすことを論じる。
微分可能な動的プログラミングの定式化の下では、FSD(Fen-fine Sequence Distance)とLCS(Longest Common Subsequence)の2つの相補的コントラストが設計されている。
提案手法は,2つのベンチマークにおいて最先端の性能を実現する。
論文 参考訳(メタデータ) (2022-03-31T05:13:50Z) - Temporal Transductive Inference for Few-Shot Video Object Segmentation [27.140141181513425]
Few-shot Object segmentation (FS-VOS) は、初期訓練中に見えないクラスのラベル付き例を用いて、ビデオフレームのセグメンテーションを目的としている。
我々のアプローチの鍵は、グローバルな時間的制約とローカルな時間的制約の両方を使用することである。
経験的に、我々のモデルは、YouTube-VIS上の組合間の平均交点を2.8%上回る、最先端のメタラーニングアプローチより優れている。
論文 参考訳(メタデータ) (2022-03-27T14:08:30Z) - Unsupervised Feature Learning for Event Data: Direct vs Inverse Problem
Formulation [53.850686395708905]
イベントベースのカメラは、ピクセルごとの明るさ変化の非同期ストリームを記録する。
本稿では,イベントデータからの表現学習のための単一層アーキテクチャに焦点を当てる。
我々は,最先端手法と比較して,認識精度が最大9%向上したことを示す。
論文 参考訳(メタデータ) (2020-09-23T10:40:03Z) - Pseudo-Convolutional Policy Gradient for Sequence-to-Sequence
Lip-Reading [96.48553941812366]
唇読解は唇運動系列から音声内容を推測することを目的としている。
seq2seqモデルの伝統的な学習プロセスには2つの問題がある。
本稿では,これら2つの問題に対処するために,PCPGに基づく新しい手法を提案する。
論文 参考訳(メタデータ) (2020-03-09T09:12:26Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。