論文の概要: Collaboratively Self-supervised Video Representation Learning for Action
Recognition
- arxiv url: http://arxiv.org/abs/2401.07584v1
- Date: Mon, 15 Jan 2024 10:42:04 GMT
- ステータス: 処理完了
- システム内更新日: 2024-01-17 17:21:51.003670
- Title: Collaboratively Self-supervised Video Representation Learning for Action
Recognition
- Title(参考訳): 行動認識のための協調的自己指導型映像表現学習
- Authors: Jie Zhang, Zhifan Wan, Lanqing Hu, Stephen Lin, Shuzhe Wu, Shiguang
Shan
- Abstract要約: 我々は,行動認識に特化した協調的自己指導型ビデオ表現学習フレームワークを設計する。
提案手法は,UCF101およびHMDB51データセット上での最先端性能を実現する。
- 参考スコア(独自算出の注目度): 58.195372471117615
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Considering the close connection between action recognition and human pose
estimation, we design a Collaboratively Self-supervised Video Representation
(CSVR) learning framework specific to action recognition by jointly considering
generative pose prediction and discriminative context matching as pretext
tasks. Specifically, our CSVR consists of three branches: a generative pose
prediction branch, a discriminative context matching branch, and a video
generating branch. Among them, the first one encodes dynamic motion feature by
utilizing Conditional-GAN to predict the human poses of future frames, and the
second branch extracts static context features by pulling the representations
of clips and compressed key frames from the same video together while pushing
apart the pairs from different videos. The third branch is designed to recover
the current video frames and predict the future ones, for the purpose of
collaboratively improving dynamic motion features and static context features.
Extensive experiments demonstrate that our method achieves state-of-the-art
performance on the UCF101 and HMDB51 datasets.
- Abstract(参考訳): 行動認識と人間のポーズ推定の密接な関係を考慮して,生成的ポーズ予測と判別的コンテキストマッチングを前文課題として考慮し,行動認識に特有の協調的自己教師付き映像表現(csvr)学習フレームワークを設計する。
具体的には、CSVRは、生成的ポーズ予測枝、識別的コンテキストマッチング枝、ビデオ生成枝の3つから構成される。
このうち、第1のブランチは、条件付きGANを利用して、将来のフレームの人間のポーズを予測し、第2のブランチは、同じビデオからクリップと圧縮されたキーフレームの表現を引いて、異なるビデオからペアを押し離して静的なコンテキスト特徴を抽出する。
第3のブランチは、動的モーション特徴と静的コンテキスト特徴を協調的に改善するために、現在のビデオフレームを復元し、将来のフレームを予測するように設計されている。
実験の結果,UCF101およびHMDB51データセットの最先端性能が得られた。
関連論文リスト
- Online Video Instance Segmentation via Robust Context Fusion [36.376900904288966]
ビデオインスタンスセグメンテーション(VIS)は、ビデオシーケンス内のオブジェクトインスタンスを分類、セグメンテーション、追跡することを目的としている。
最近のトランスフォーマーベースのニューラルネットワークは、VISタスクのモデリングの強力な能力を実証している。
そこで本稿では,VISをオンライン方式で扱うための堅牢なコンテキスト融合ネットワークを提案する。
論文 参考訳(メタデータ) (2022-07-12T15:04:50Z) - Self-Regulated Learning for Egocentric Video Activity Anticipation [147.9783215348252]
自己制御学習(SRL)は、中間表現を連続的に制御し、現在のタイムスタンプのフレームにおける新しい情報を強調する表現を作り出すことを目的としている。
SRLは2つのエゴセントリックなビデオデータセットと2つの第三者のビデオデータセットにおいて、既存の最先端技術よりも大幅に優れています。
論文 参考訳(メタデータ) (2021-11-23T03:29:18Z) - Towards Tokenized Human Dynamics Representation [41.75534387530019]
我々は,ビデオの時間的パターンを自己監督的に分割し,クラスタ化する方法について検討した。
我々は、ケンドールのTauによるフレームワイド表現学習ステップと、正規化された相互情報と言語エントロピーによる語彙構築ステップを評価する。
AIST++とPKU-MMDデータセットでは、アクトンはいくつかのベースラインと比較して大幅にパフォーマンスが改善されている。
論文 参考訳(メタデータ) (2021-11-22T18:59:58Z) - Visual Relationship Forecasting in Videos [56.122037294234865]
本稿では,視覚関係予測(Visual Relation Forecasting:VRF)というタスクをビデオに提示する。
Hフレームと対象オブジェクトのペアを与えられたVRFは、視覚的な証拠なしに次のTフレームに対する将来の相互作用を予測することを目的としている。
VRFタスクを評価するために,VRF-AGとVRF-VidORという2つのビデオデータセットを導入する。
論文 参考訳(メタデータ) (2021-07-02T16:43:19Z) - Video Imprint [107.1365846180187]
複雑なイベント検索,認識,記録のための統合ビデオ分析フレームワーク(ER3)が提案されている。
提案したビデオインプリント表現は、ビデオフレーム間の画像特徴間の時間的相関を利用する。
ビデオインプリントは、それぞれ、イベント認識/記録およびイベント検索タスクのために、推論ネットワークと特徴集約モジュールに入力される。
論文 参考訳(メタデータ) (2021-06-07T00:32:47Z) - Contrastive Transformation for Self-supervised Correspondence Learning [120.62547360463923]
野生のラベルのない動画を用いて,視覚的対応の自己監督学習について検討する。
本手法は,信頼性の高い対応推定のための映像内および映像間表現関連を同時に検討する。
我々のフレームワークは、近年の視覚的タスクにおける自己監督型対応手法よりも優れています。
論文 参考訳(メタデータ) (2020-12-09T14:05:06Z) - Unsupervised Learning of Video Representations via Dense Trajectory
Clustering [86.45054867170795]
本稿では,ビデオにおける行動認識のための表現の教師なし学習の課題に対処する。
まず、このクラスの2つのトップパフォーマンス目標(インスタンス認識と局所集約)を適用することを提案する。
有望な性能を観察するが、定性的解析により、学習した表現が動きのパターンを捉えないことを示す。
論文 参考訳(メタデータ) (2020-06-28T22:23:03Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。