論文の概要: Self-Supervised Learning for Semi-Supervised Temporal Action Proposal
- arxiv url: http://arxiv.org/abs/2104.03214v1
- Date: Wed, 7 Apr 2021 16:03:25 GMT
- ステータス: 処理完了
- システム内更新日: 2021-04-08 15:03:51.185780
- Title: Self-Supervised Learning for Semi-Supervised Temporal Action Proposal
- Title(参考訳): 半監督時間行動提案のための自己指導型学習
- Authors: Xiang Wang, Shiwei Zhang, Zhiwu Qing, Yuanjie Shao, Changxin Gao and
Nong Sang
- Abstract要約: SSTAP(Self-supervised Semi-supervised Temporal Action Proposal)フレームワークの設計を行います。
SSTAPは2つの重要な分岐、すなわち時間対応半監督枝と関係対応自監督枝を含んでいる。
提案されたSSTAPをTHUMOS14およびActivityNet v1.3データセット上で幅広く評価する。
- 参考スコア(独自算出の注目度): 42.6254639252739
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Self-supervised learning presents a remarkable performance to utilize
unlabeled data for various video tasks. In this paper, we focus on applying the
power of self-supervised methods to improve semi-supervised action proposal
generation. Particularly, we design an effective Self-supervised
Semi-supervised Temporal Action Proposal (SSTAP) framework. The SSTAP contains
two crucial branches, i.e., temporal-aware semi-supervised branch and
relation-aware self-supervised branch. The semi-supervised branch improves the
proposal model by introducing two temporal perturbations, i.e., temporal
feature shift and temporal feature flip, in the mean teacher framework. The
self-supervised branch defines two pretext tasks, including masked feature
reconstruction and clip-order prediction, to learn the relation of temporal
clues. By this means, SSTAP can better explore unlabeled videos, and improve
the discriminative abilities of learned action features. We extensively
evaluate the proposed SSTAP on THUMOS14 and ActivityNet v1.3 datasets. The
experimental results demonstrate that SSTAP significantly outperforms
state-of-the-art semi-supervised methods and even matches fully-supervised
methods. Code is available at https://github.com/wangxiang1230/SSTAP.
- Abstract(参考訳): 自己教師付き学習は、様々なビデオタスクにラベルのないデータを利用する際、顕著なパフォーマンスを示す。
本稿では,半教師付き行動提案生成の改善に自己監督手法の力を適用することに焦点をあてる。
特に,SSTAP(Self-supervised Semi-supervised Temporal Action Proposal)フレームワークを設計する。
SSTAPは2つの重要な分岐、すなわち時間対応半監督枝と関係対応自監督枝を含んでいる。
半教師分枝は,2つの時間的摂動,すなわち時間的特徴シフトと時間的特徴フリップを導入することで提案モデルを改善する。
自己教師付きブランチは、時間的手がかりの関係を学ぶために、マスク特徴の再構築とクリップ次予測を含む2つの前文タスクを定義する。
これにより、SSTAPはラベルのない動画をよりよく探索し、学習されたアクション機能の識別能力を向上させることができる。
THUMOS14およびActivityNet v1.3データセット上で提案したSSTAPを広範囲に評価する。
実験の結果、SSTAPは最先端の半教師付き手法よりも優れており、完全に教師付き手法とさえ一致していることがわかった。
コードはhttps://github.com/wangxiang1230/SSTAPで入手できる。
関連論文リスト
- Skeleton2vec: A Self-supervised Learning Framework with Contextualized
Target Representations for Skeleton Sequence [56.092059713922744]
予測対象として高レベルな文脈化機能を使用することで,優れた性能が得られることを示す。
具体的には、シンプルで効率的な3D行動表現学習フレームワークであるSkeleton2vecを提案する。
提案するSkeleton2vecは,従来の手法より優れ,最先端の結果が得られる。
論文 参考訳(メタデータ) (2024-01-01T12:08:35Z) - Self-Supervised Representation Learning from Temporal Ordering of
Automated Driving Sequences [49.91741677556553]
本研究では、認識タスクのための地域レベルの特徴表現を事前学習するための時間順述前文タスクであるTempOを提案する。
我々は各フレームを、オブジェクト検出やトラッキングシステムにとって自然な表現である、未順序な特徴ベクトルのセットで埋め込む。
BDD100K、nu Images、MOT17データセットの大規模な評価は、私たちのTempO事前学習アプローチがシングルフレームの自己教師型学習方法よりも優れていることを示している。
論文 参考訳(メタデータ) (2023-02-17T18:18:27Z) - Active Learning with Effective Scoring Functions for Semi-Supervised
Temporal Action Localization [15.031156121516211]
本稿では,半教師型talという,滅多に研究されていない実践的な課題に焦点を当てる。
本稿では,AL-STALという効果的な能動学習手法を提案する。
実験の結果,AL-STALは既存の競争相手よりも優れ,完全教師付き学習と比較して満足度が高いことがわかった。
論文 参考訳(メタデータ) (2022-08-31T13:39:38Z) - Self-Regulated Learning for Egocentric Video Activity Anticipation [147.9783215348252]
自己制御学習(SRL)は、中間表現を連続的に制御し、現在のタイムスタンプのフレームにおける新しい情報を強調する表現を作り出すことを目的としている。
SRLは2つのエゴセントリックなビデオデータセットと2つの第三者のビデオデータセットにおいて、既存の最先端技術よりも大幅に優れています。
論文 参考訳(メタデータ) (2021-11-23T03:29:18Z) - Weakly-Supervised Spatio-Temporal Anomaly Detection in Surveillance
Video [128.41392860714635]
Weakly-Supervised Snoma-Temporally Detection (WSSTAD) を監視ビデオに導入する。
WSSTADは異常事象を封止する時空間管(すなわち連続する境界ボックスのシーケンス)をローカライズすることを目的としている。
本稿では,空間的・時間的領域に複数粒度を持つ入力提案を行うデュアルブランチネットワークを提案する。
論文 参考訳(メタデータ) (2021-08-09T06:11:14Z) - Unsupervised Action Segmentation with Self-supervised Feature Learning
and Co-occurrence Parsing [32.66011849112014]
時間的アクションセグメンテーションは、ビデオの各フレームをアクションラベルで分類するタスクである。
本研究では,ラベル付けされていないビデオのコーパスで動作する自己教師型手法を探索し,ビデオ全体にわたる時間的セグメントのセットを予測する。
我々は,行動の構造に基づくサブアクション間の相関を捉えるだけでなく,そのサブアクションの時間的軌跡を正確かつ一般的な方法で推定する,新しい共起動作解析アルゴリズムであるCAPを開発した。
論文 参考訳(メタデータ) (2021-05-29T00:29:40Z) - Self-supervised Video Object Segmentation [76.83567326586162]
本研究の目的は、半教師付きビデオオブジェクトセグメンテーション(高密度トラッキング)の解決を目的とした自己教師付き表現学習である。
i) 従来の自己教師型アプローチを改善すること、(ii) オンライン適応モジュールによる自己教師型アプローチの強化により、空間的時間的不連続性によるトラッカーのドリフトを緩和すること、(iv) DAVIS-2017とYouTubeの自己教師型アプローチで最先端の結果を示すこと、などが提案されている。
論文 参考訳(メタデータ) (2020-06-22T17:55:59Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。