論文の概要: Single-Shot Freestyle Dance Reenactment
- arxiv url: http://arxiv.org/abs/2012.01158v2
- Date: Sun, 21 Mar 2021 14:11:57 GMT
- ステータス: 処理完了
- システム内更新日: 2021-05-25 04:07:20.589074
- Title: Single-Shot Freestyle Dance Reenactment
- Title(参考訳): シングルショットフリースタイルダンス再現
- Authors: Oran Gafni, Oron Ashual, Lior Wolf
- Abstract要約: ソースダンサーと対象者との間の動き伝達のタスクは、ポーズ伝達問題の特別なケースである。
本稿では,任意の映像シーケンスで1つの画像を再識別できる新しい手法を提案する。
- 参考スコア(独自算出の注目度): 89.91619150027265
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The task of motion transfer between a source dancer and a target person is a
special case of the pose transfer problem, in which the target person changes
their pose in accordance with the motions of the dancer.
In this work, we propose a novel method that can reanimate a single image by
arbitrary video sequences, unseen during training. The method combines three
networks: (i) a segmentation-mapping network, (ii) a realistic frame-rendering
network, and (iii) a face refinement network. By separating this task into
three stages, we are able to attain a novel sequence of realistic frames,
capturing natural motion and appearance. Our method obtains significantly
better visual quality than previous methods and is able to animate diverse body
types and appearances, which are captured in challenging poses, as shown in the
experiments and supplementary video.
- Abstract(参考訳): 光源ダンサーと対象者との移動移動のタスクは、ダンサーの動作に応じて対象者がポーズを変更するポーズ伝達問題(英語版)の特別な場合である。
そこで本研究では,任意の映像列で1つの映像を再現し,訓練中は見当たらない新しい手法を提案する。
この方法は、(i)セグメンテーションマッピングネットワーク、(ii)現実的なフレームレンダリングネットワーク、(iii)顔改善ネットワークの3つのネットワークを組み合わせたものである。
このタスクを3つのステージに分割することで、自然な動きと外観をキャプチャして、新しいリアルなフレームのシーケンスを実現できる。
提案手法は,従来手法に比べて視覚品質が著しく向上し,実験や補足ビデオに示すように,挑戦的なポーズでキャプチャされる多様な体型や外観をアニメートすることができる。
関連論文リスト
- Replace Anyone in Videos [39.4019337319795]
ビデオ中の人間の動きのローカライズと操作に焦点を当てたReplaceAnyoneフレームワークを提案する。
具体的には、このタスクをイメージ条件付きポーズ駆動ビデオインペインティングパラダイムとして定式化する。
形状漏れを回避し,局所制御のきめ細かな制御を可能にするために,規則形状と不規則形状を含む多種多様なマスク形式を導入する。
論文 参考訳(メタデータ) (2024-09-30T03:27:33Z) - Towards 4D Human Video Stylization [56.33756124829298]
本稿では,4D(3Dおよび時間)の映像スタイリングに向けての第一歩として,スタイル変換,新しいビュー合成,人間アニメーションについて述べる。
我々はNeural Radiance Fields(NeRF)を利用してビデオを表現する。
我々のフレームワークは、斬新なポーズや視点に対応する能力を独自に拡張し、クリエイティブなヒューマンビデオスタイリングのための汎用的なツールとなる。
論文 参考訳(メタデータ) (2023-12-07T08:58:33Z) - Skeleton-free Pose Transfer for Stylized 3D Characters [53.33996932633865]
骨格リグを使わずにスタイリングされた3D文字間でポーズを自動転送する最初の方法を提案する。
そこで本稿では,対象キャラクターを目的のポーズに合わせるために,キャラクタのスキニング重みと変形変形を共同で予測する新しいポーズ伝達ネットワークを提案する。
提案手法は,既存の文字データを一対のポーズとスタイル化された形状で吸収する半教師付き方式で訓練されている。
論文 参考訳(メタデータ) (2022-07-28T20:05:57Z) - Flow Guided Transformable Bottleneck Networks for Motion Retargeting [29.16125343915916]
既存の取り組みでは、対象者ごとの長いトレーニング映像を利用して、対象者固有のモーショントランスファーモデルをトレーニングしている。
ターゲットからの1枚または数枚の画像しか必要としないモーショントランスファー技術が近年注目されている。
本稿では,トランスフォーマブル・ボトルネックネットワークにヒントを得て,画像内容の暗黙の容積表現に基づくアプローチを提案する。
論文 参考訳(メタデータ) (2021-06-14T21:58:30Z) - High-Fidelity Neural Human Motion Transfer from Monocular Video [71.75576402562247]
ビデオベースの人間のモーション転送は、ソースモーションに従って人間のビデオアニメーションを作成します。
自然なポーズ依存非剛性変形を伴う高忠実で時間的に一貫性のある人の動き伝達を行う新しい枠組みを提案する。
実験結果では,映像リアリズムの点で最先端を著しく上回っている。
論文 参考訳(メタデータ) (2020-12-20T16:54:38Z) - Pose-Guided Human Animation from a Single Image in the Wild [83.86903892201656]
身体ポーズのシーケンスによって制御される人の単一の画像から人間のアニメーションを合成するための新しいポーズ転送方法を提案する。
既存のポーズ転送手法は、新しいシーンに適用する際に重要な視覚的アーティファクトを示す。
我々は,シルエット,衣料ラベル,テクスチャを予測する合成ニューラルネットワークを設計した。
我々は、テスト現場でネットワークを微調整することなく、時間的に一貫した方法で人物のアイデンティティと外観を保存できる人間のアニメーションを合成することができる。
論文 参考訳(メタデータ) (2020-12-07T15:38:29Z) - Human Motion Transfer from Poses in the Wild [61.6016458288803]
人間の動き伝達の問題に対処し、基準映像からの動きを模倣する対象人物のための新しい動き映像を合成する。
推定ポーズを用いて2つのドメインをブリッジするビデオ間翻訳タスクである。
トレーニング中に見つからない線内ポーズシーケンスであっても、時間的に一貫性のある高品質なビデオを生成するための新しいポーズ・ツー・ビデオ翻訳フレームワークを提案する。
論文 参考訳(メタデータ) (2020-04-07T05:59:53Z) - Do As I Do: Transferring Human Motion and Appearance between Monocular
Videos with Spatial and Temporal Constraints [8.784162652042959]
画像からのマーカレス人間の動き推定と形状モデリングは、この課題を先進国にもたらす。
本稿では,モノクラービデオから外見や人間の動きを伝達するための統一的な定式化を提案する。
本手法は,人間の動作と外観の両方を,最先端の手法で転送することができる。
論文 参考訳(メタデータ) (2020-01-08T16:39:16Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。