論文の概要: Dynamic gesture retrieval: searching videos by human pose sequence
- arxiv url: http://arxiv.org/abs/2006.07604v2
- Date: Tue, 27 Apr 2021 03:53:15 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-21 21:26:34.093274
- Title: Dynamic gesture retrieval: searching videos by human pose sequence
- Title(参考訳): 動的ジェスチャー検索:人間のポーズシーケンスによるビデオ検索
- Authors: Cheng Zhang
- Abstract要約: 人間のポーズの指定されたシーケンスを含む動画を検索する新しい手法を提案する。
提案手法は,キーワードジェスチャビデオとビデオ候補から連続的な3次元人間のポーズを取る。
次に、時間的ピラミッドスライディングウィンドウを適用して、指定されたジェスチャーとビデオ候補の一致を見つける。
- 参考スコア(独自算出の注目度): 7.310488568715925
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The number of static human poses is limited, it is hard to retrieve the exact
videos using one single pose as the clue. However, with a pose sequence or a
dynamic gesture as the keyword, retrieving specific videos becomes more
feasible. We propose a novel method for querying videos containing a designated
sequence of human poses, whereas previous works only designate a single static
pose. The proposed method takes continuous 3d human poses from keyword gesture
video and video candidates, then converts each pose in individual frames into
bone direction descriptors, which describe the direction of each natural
connection in articulated pose. A temporal pyramid sliding window is then
applied to find matches between designated gesture and video candidates, which
ensures that same gestures with different duration can be matched.
- Abstract(参考訳): 静止した人間のポーズの数は限られており、単一のポーズを手がかりとして正確なビデオを取得するのは難しい。
しかし、ポーズシーケンスや動的ジェスチャーをキーワードとして、特定のビデオの検索がより可能になる。
従来の研究では静的なポーズを1つだけ指定するのに対し,人間のポーズの特定のシーケンスを含むビデオに問い合わせる新しい手法を提案する。
提案手法では, キーワードジェスチャ映像と映像候補から連続3次元人間のポーズを取り, 個々のフレーム内の各ポーズを骨方向記述子に変換し, 調音ポーズにおける各自然接続の方向を記述する。
次に、時間的ピラミッドスライディングウィンドウを適用して、指定されたジェスチャーとビデオ候補の一致を見つけ、異なる期間の同じジェスチャーを一致させることができる。
関連論文リスト
- PoseEmbroider: Towards a 3D, Visual, Semantic-aware Human Pose Representation [38.958695275774616]
検索方式で訓練された新しいトランスフォーマーモデルを導入し、上記のモダリティの組み合わせを任意の入力として利用できるようにする。
本稿では,(1)オプションのテキストキューによる画像からのSMPL回帰と(2)きめ細かな命令生成のタスクに対する,そのような埋め込みされたポーズ表現の可能性を示す。
論文 参考訳(メタデータ) (2024-09-10T14:09:39Z) - PoseCrafter: One-Shot Personalized Video Synthesis Following Flexible Pose Control [22.253448372833617]
PoseCrafterは、フレキシブルポーズのコントロールに続くパーソナライズされたビデオ生成のためのワンショット方式である。
安定拡散と制御ネットに基づいて、我々は、高品質なビデオを生成するための推論プロセスを慎重に設計する。
論文 参考訳(メタデータ) (2024-05-23T13:53:50Z) - PoseSync: Robust pose based video synchronization [0.0]
ポーズに基づいて動画を同期するエンド・ツー・エンドパイプラインを提案する。
第1ステップは、画像に存在する人物のいる領域を収穫し、次いで、収穫された画像のポーズ検出を行う。
次に、動的時間ウォーピング(DTW)が、ポーズキーポイント間の角度/距離測定に応用され、スケールとシフト不変のポーズマッチングパイプラインが導かれる。
論文 参考訳(メタデータ) (2023-08-24T07:02:15Z) - Follow Your Pose: Pose-Guided Text-to-Video Generation using Pose-Free
Videos [107.65147103102662]
本研究では、ポーズ制御可能なキャラクタビデオを得るために、データセット(ポーズペアとポーズフリービデオ)と事前訓練されたテキスト・ツー・イメージ(T2I)モデルを利用する。
具体的には、第1段階では、キーポイントと画像のペアのみが制御可能なテキストと画像の生成にのみ使用される。
第2段階では、学習可能な時間的自己アテンションと修正されたクロスフレーム自己アテンションブロックを追加することで、ポーズのないビデオデータセットを介して、上記のネットワークの動きを微調整する。
論文 参考訳(メタデータ) (2023-04-03T17:55:14Z) - Neural Rendering of Humans in Novel View and Pose from Monocular Video [68.37767099240236]
本稿では,新しい視点下で写真リアルな人間を生成し,モノクロ映像を入力として提示する新しい手法を提案する。
提案手法は,モノクラー映像を入力として,見知らぬポーズや新しい視点下での既存手法よりも優れていた。
論文 参考訳(メタデータ) (2022-04-04T03:09:20Z) - Image Comes Dancing with Collaborative Parsing-Flow Video Synthesis [124.48519390371636]
人の動きをソースから対象人物に転送することは、コンピュータビジョンやグラフィックアプリケーションにおいて大きな可能性を秘めている。
これまでは、人工的な3Dモデルに頼っていたり、ターゲットごとに個別のモデルを訓練していた。
本研究は,ソース映像から対象人物への動きを同期的に伝達する単一モデルを学習することを目的とした,より一般的な設定について研究する。
論文 参考訳(メタデータ) (2021-10-27T03:42:41Z) - Single-Shot Freestyle Dance Reenactment [89.91619150027265]
ソースダンサーと対象者との間の動き伝達のタスクは、ポーズ伝達問題の特別なケースである。
本稿では,任意の映像シーケンスで1つの画像を再識別できる新しい手法を提案する。
論文 参考訳(メタデータ) (2020-12-02T12:57:43Z) - Motion Capture from Internet Videos [47.943209721329474]
画像に基づく人間のポーズ推定の最近の進歩により、単一のRGBビデオから3Dの人間の動きを捉えることができる。
マルチビュービデオは一般的ではないが、特定のアクションを行う有名人のビデオはインターネット上で多く見られる。
本稿では,新しい最適化フレームワークを提案し,複数のビデオからより正確かつ詳細な動きを復元する能力を実験的に実証する。
論文 参考訳(メタデータ) (2020-08-18T13:48:37Z) - IntegralAction: Pose-driven Feature Integration for Robust Human Action
Recognition in Videos [94.06960017351574]
ポーズ駆動機能統合を学習し、その場でポーズ機能を観察して、外観とポーズストリームを動的に組み合わせます。
提案したIntegralActionは,コンテクスト内およびアウト・オブ・コンテクストのアクションビデオデータセット間で高いロバストなパフォーマンスを実現する。
論文 参考訳(メタデータ) (2020-07-13T11:24:48Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。