論文の概要: Key Frame Proposal Network for Efficient Pose Estimation in Videos
- arxiv url: http://arxiv.org/abs/2007.15217v1
- Date: Thu, 30 Jul 2020 04:06:40 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-05 14:17:08.718080
- Title: Key Frame Proposal Network for Efficient Pose Estimation in Videos
- Title(参考訳): ビデオにおける効率的なポーズ推定のためのキーフレーム提案ネットワーク
- Authors: Yuexi Zhang, Yin Wang, Octavia Camps, Mario Sznaier
- Abstract要約: 我々は、情報フレームを選択するための軽量で教師なしキーフレーム提案ネットワーク(K-FPN)と、これらのフレームからポーズシーケンス全体を復元する学習辞書を導入する。
The experiments on Penn Action and sub-JHMDB datasets shows that the proposed method achieved the state-of-the-art accuracy with significantly speed-up。
- 参考スコア(独自算出の注目度): 13.034156396537565
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Human pose estimation in video relies on local information by either
estimating each frame independently or tracking poses across frames. In this
paper, we propose a novel method combining local approaches with global
context. We introduce a light weighted, unsupervised, key frame proposal
network (K-FPN) to select informative frames and a learned dictionary to
recover the entire pose sequence from these frames. The K-FPN speeds up the
pose estimation and provides robustness to bad frames with occlusion, motion
blur, and illumination changes, while the learned dictionary provides global
dynamic context. Experiments on Penn Action and sub-JHMDB datasets show that
the proposed method achieves state-of-the-art accuracy, with substantial
speed-up.
- Abstract(参考訳): ビデオにおける人間のポーズ推定は、各フレームを独立して推定するか、フレーム全体でのポーズを追跡することによって、ローカル情報に依存する。
本稿では,ローカルアプローチとグローバルコンテキストを組み合わせた新しい手法を提案する。
重み付き,教師なし,キーフレーム提案ネットワーク (k-fpn) を導入し,情報フレームと学習辞書を選択し,これらのフレームからポーズシーケンス全体を復元する。
k-fpnはポーズ推定を高速化し、オクルージョン、動きのぼやけ、照明の変化を伴うバッドフレームに堅牢性を提供し、学習辞書はグローバルなダイナミックコンテキストを提供する。
penn アクションとサブ jhmdb データセットの実験により、提案手法は、かなりのスピードアップで最先端の精度を達成できることが示されている。
関連論文リスト
- KRONC: Keypoint-based Robust Camera Optimization for 3D Car Reconstruction [58.04846444985808]
KRONCは、オブジェクトに関する事前知識を活用して、セマンティックキーポイントを通してその表現を再構築することで、ビューポーズを推論する新しいアプローチである。
車両シーンに焦点を当てたKRONCは、キーポイントのバックプロジェクションを特異点に収束させることを目的とした光最適化問題の解として、ビューの位置を推定することができる。
論文 参考訳(メタデータ) (2024-09-09T08:08:05Z) - OTPose: Occlusion-Aware Transformer for Pose Estimation in
Sparsely-Labeled Videos [21.893572076171527]
本稿では, コンバータを用いたフレーム間の時間依存性を符号化する手法を提案する。
我々は、PoseTrack 2017とPoseTrack 2018データセットの最先端のポーズ推定結果を達成する。
論文 参考訳(メタデータ) (2022-07-20T08:06:06Z) - Context Sensing Attention Network for Video-based Person
Re-identification [20.865710012336724]
ビデオフレームに様々な干渉が存在するため、ReID(Video-based person re-identification)は困難である。
近年のアプローチでは、時間的集約戦略を用いてこの問題に対処している。
フレームの特徴抽出と時間的集約の両方を改善する新しいコンテキストセンシング注意ネットワーク(CSA-Net)を提案する。
論文 参考訳(メタデータ) (2022-07-06T12:48:27Z) - MHSCNet: A Multimodal Hierarchical Shot-aware Convolutional Network for
Video Summarization [61.69587867308656]
本稿では,MHSCNetと呼ばれるマルチモーダル階層型ショット・アウェア・畳み込みネットワークを提案する。
学習したショット認識表現に基づいて、MHSCNetは、ビデオのローカルおよびグローバルビューにおけるフレームレベルの重要度スコアを予測することができる。
論文 参考訳(メタデータ) (2022-04-18T14:53:33Z) - Temporal Feature Alignment and Mutual Information Maximization for
Video-Based Human Pose Estimation [38.571715193347366]
マルチフレーム人間のポーズ推定のための新しい階層的アライメントフレームワークを提案する。
ベンチマークデータセットのPoseTrack 2017では、マルチフレームPerson Pose Estimation Challengeの1位にランクインし、ベンチマークのSub-JHMDBとPose-Track 2018では最先端のパフォーマンスを得ています。
論文 参考訳(メタデータ) (2022-03-29T04:29:16Z) - Wide and Narrow: Video Prediction from Context and Motion [54.21624227408727]
本稿では,これらの相補的属性を統合し,深層ネットワークを通した複雑なピクセルのダイナミックスを予測するフレームワークを提案する。
本研究では,非局所的な近隣表現を集約し,過去のフレーム上の文脈情報を保存するグローバルなコンテキスト伝搬ネットワークを提案する。
また,移動オブジェクトの動作をメモリに格納することで,適応的なフィルタカーネルを生成するローカルフィルタメモリネットワークを考案した。
論文 参考訳(メタデータ) (2021-10-22T04:35:58Z) - TimeLens: Event-based Video Frame Interpolation [54.28139783383213]
本稿では,合成法とフロー法の両方の利点を生かした,等価寄与法であるTime Lensを紹介する。
最先端のフレームベースおよびイベントベース手法よりもPSNRが最大5.21dB向上したことを示す。
論文 参考訳(メタデータ) (2021-06-14T10:33:47Z) - Motion-blurred Video Interpolation and Extrapolation [72.3254384191509]
本稿では,映像から鮮明なフレームをエンドツーエンドに切り離し,補間し,外挿する新しい枠組みを提案する。
予測フレーム間の時間的コヒーレンスを確保し,潜在的な時間的あいまいさに対処するために,単純で効果的なフローベースルールを提案する。
論文 参考訳(メタデータ) (2021-03-04T12:18:25Z) - SF-Net: Single-Frame Supervision for Temporal Action Localization [60.202516362976645]
単一フレームの監視は、低いアノテーションのオーバーヘッドを維持しながら、追加の時間的アクション信号を導入します。
本研究では,SF-Netと呼ばれる単一フレーム監視システムを提案する。
SF-Netは、セグメントローカライゼーションと単一フレームローカライゼーションの両方の観点から、最先端の弱い教師付き手法を大幅に改善する。
論文 参考訳(メタデータ) (2020-03-15T15:06:01Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。