論文の概要: PoseSync: Robust pose based video synchronization
- arxiv url: http://arxiv.org/abs/2308.12600v1
- Date: Thu, 24 Aug 2023 07:02:15 GMT
- ステータス: 処理完了
- システム内更新日: 2023-08-25 14:55:54.799098
- Title: PoseSync: Robust pose based video synchronization
- Title(参考訳): PoseSync:ロバストポーズに基づくビデオ同期
- Authors: Rishit Javia, Falak Shah, and Shivam Dave
- Abstract要約: ポーズに基づいて動画を同期するエンド・ツー・エンドパイプラインを提案する。
第1ステップは、画像に存在する人物のいる領域を収穫し、次いで、収穫された画像のポーズ検出を行う。
次に、動的時間ウォーピング(DTW)が、ポーズキーポイント間の角度/距離測定に応用され、スケールとシフト不変のポーズマッチングパイプラインが導かれる。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Pose based video sychronization can have applications in multiple domains
such as gameplay performance evaluation, choreography or guiding athletes. The
subject's actions could be compared and evaluated against those performed by
professionals side by side. In this paper, we propose an end to end pipeline
for synchronizing videos based on pose. The first step crops the region where
the person present in the image followed by pose detection on the cropped
image. This is followed by application of Dynamic Time Warping(DTW) on angle/
distance measures between the pose keypoints leading to a scale and shift
invariant pose matching pipeline.
- Abstract(参考訳): ポースベースのビデオ同期は、ゲームプレイのパフォーマンス評価、振付、指導選手などの複数の領域に応用できる。
被験者の行動は、専門家が行う行動と比較し、評価することができる。
本稿では,ポーズに基づく映像同期のためのエンドツーエンドパイプラインを提案する。
第1ステップは、画像に存在する人物のいる領域を収穫し、次いで、収穫された画像のポーズ検出を行う。
次に、動的時間ウォーピング(DTW)が、ポーズキーポイント間の角度/距離測定に応用され、スケールとシフト不変のポーズマッチングパイプラインが導かれる。
関連論文リスト
- VividPose: Advancing Stable Video Diffusion for Realistic Human Image Animation [79.99551055245071]
時間的安定性を向上するエンドツーエンドパイプラインであるVividPoseを提案する。
識別対応外見制御器は、他の外見の詳細を損なうことなく、追加の顔情報を統合する。
SMPL-Xからの高密度レンダリングマップとスパーススケルトンマップの両方を利用する幾何対応のポーズコントローラ。
VividPoseは、提案したWildデータセットに優れた一般化能力を示す。
論文 参考訳(メタデータ) (2024-05-28T13:18:32Z) - PoseCrafter: One-Shot Personalized Video Synthesis Following Flexible Pose Control [22.253448372833617]
PoseCrafterは、フレキシブルポーズのコントロールに続くパーソナライズされたビデオ生成のためのワンショット方式である。
安定拡散と制御ネットに基づいて、我々は、高品質なビデオを生成するための推論プロセスを慎重に設計する。
論文 参考訳(メタデータ) (2024-05-23T13:53:50Z) - A Probabilistic Framework for Visual Localization in Ambiguous Scenes [64.13544430239267]
本稿では,カメラポーズの任意の形状の後部分布を予測する確率的枠組みを提案する。
我々は、予測分布からサンプリングできる変分推論を用いて、カメラポーズ回帰の新たな定式化によってこれを行う。
本手法は,不明瞭なシーンの局所化において,既存の手法よりも優れる。
論文 参考訳(メタデータ) (2023-01-05T14:46:54Z) - Smooth head tracking for virtual reality applications [0.0]
本稿では,仮想3次元環境と人間と機械のリアルタイムインタラクションのための新しいヘッドトラッキングソリューションを提案する。
このソリューションは、RGBDデータを利用して、ユーザの頭の動きに応じて仮想カメラのポーズを計算する。
論文 参考訳(メタデータ) (2021-10-27T05:47:21Z) - JOKR: Joint Keypoint Representation for Unsupervised Cross-Domain Motion
Retargeting [53.28477676794658]
ビデオにおける教師なしの動作は ディープ・ニューラル・ネットワークによって 大幅に進歩しました
JOKR(Joint Keypoint Representation)は、オブジェクトの事前やデータ収集を必要とせずに、ソースとターゲットのビデオの両方を処理する。
本手法は質的かつ定量的に評価し,異なる動物,異なる花,人間など,さまざまなクロスドメインシナリオを扱うことを示す。
論文 参考訳(メタデータ) (2021-06-17T17:32:32Z) - Deep Dual Consecutive Network for Human Pose Estimation [44.41818683253614]
キーポイント検出を容易にするために,ビデオフレーム間の時間的キューを豊富に活用した,新しいマルチフレーム人間ポーズ推定フレームワークを提案する。
本手法は、PoseTrack 2017およびPoseTrack 2018の大規模ベンチマークデータセットにおけるマルチフレームパーソンポースチャレンジチャレンジで1位にランクインします。
論文 参考訳(メタデータ) (2021-03-12T13:11:27Z) - Towards Accurate Human Pose Estimation in Videos of Crowded Scenes [134.60638597115872]
我々は、時間的文脈を利用して新しいデータを収集する視点から、混雑したシーンのビデオにおける人間のポーズ推定を改善することに注力する。
あるフレームについては、過去のフレームから過去のポーズを転送し、その後のフレームから現在のフレームへ未来的なポーズを後退させ、ビデオにおける安定した人間のポーズ推定に繋がる。
このようにして、HIEチャレンジのテストデータセット上で、13本中7本、56.33本の平均w_APで最高の性能を達成する。
論文 参考訳(メタデータ) (2020-10-16T13:19:11Z) - IntegralAction: Pose-driven Feature Integration for Robust Human Action
Recognition in Videos [94.06960017351574]
ポーズ駆動機能統合を学習し、その場でポーズ機能を観察して、外観とポーズストリームを動的に組み合わせます。
提案したIntegralActionは,コンテクスト内およびアウト・オブ・コンテクストのアクションビデオデータセット間で高いロバストなパフォーマンスを実現する。
論文 参考訳(メタデータ) (2020-07-13T11:24:48Z) - Dynamic gesture retrieval: searching videos by human pose sequence [7.310488568715925]
人間のポーズの指定されたシーケンスを含む動画を検索する新しい手法を提案する。
提案手法は,キーワードジェスチャビデオとビデオ候補から連続的な3次元人間のポーズを取る。
次に、時間的ピラミッドスライディングウィンドウを適用して、指定されたジェスチャーとビデオ候補の一致を見つける。
論文 参考訳(メタデータ) (2020-06-13T10:11:22Z) - Human Motion Transfer from Poses in the Wild [61.6016458288803]
人間の動き伝達の問題に対処し、基準映像からの動きを模倣する対象人物のための新しい動き映像を合成する。
推定ポーズを用いて2つのドメインをブリッジするビデオ間翻訳タスクである。
トレーニング中に見つからない線内ポーズシーケンスであっても、時間的に一貫性のある高品質なビデオを生成するための新しいポーズ・ツー・ビデオ翻訳フレームワークを提案する。
論文 参考訳(メタデータ) (2020-04-07T05:59:53Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。