論文の概要: Style-ERD: Responsive and Coherent Online Motion Style Transfer
- arxiv url: http://arxiv.org/abs/2203.02574v1
- Date: Fri, 4 Mar 2022 21:12:09 GMT
- ステータス: 処理完了
- システム内更新日: 2022-03-08 15:24:12.967503
- Title: Style-ERD: Responsive and Coherent Online Motion Style Transfer
- Title(参考訳): Style-ERD: レスポンシブでコヒーレントなオンラインモーションスタイル転送
- Authors: Tianxin Tao, Xiaohang Zhan, Zhongquan Chen, Michiel van de Panne
- Abstract要約: スタイル転送はキャラクターアニメーションを豊かにする一般的な方法である。
動きをオンラインでスタイル化するための新しいスタイル転送モデルであるStyle-ERDを提案する。
本手法は,動作を複数のターゲットスタイルに統一したモデルでスタイリングする。
- 参考スコア(独自算出の注目度): 13.15016322155052
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Motion style transfer is a common method for enriching character animation.
Motion style transfer algorithms are often designed for offline settings where
motions are processed in segments. However, for online animation applications,
such as realtime avatar animation from motion capture, motions need to be
processed as a stream with minimal latency. In this work, we realize a
flexible, high-quality motion style transfer method for this setting. We
propose a novel style transfer model, Style-ERD, to stylize motions in an
online manner with an Encoder-Recurrent-Decoder structure, along with a novel
discriminator that combines feature attention and temporal attention. Our
method stylizes motions into multiple target styles with a unified model.
Although our method targets online settings, it outperforms previous offline
methods in motion realism and style expressiveness and provides significant
gains in runtime efficiency
- Abstract(参考訳): モーションスタイル転送はキャラクターアニメーションを豊かにする一般的な方法である。
モーションスタイルの転送アルゴリズムは、動作がセグメントで処理されるオフライン設定のためにしばしば設計される。
しかし、モーションキャプチャによるリアルタイムアバターアニメーションのようなオンラインアニメーションアプリケーションでは、動きを最小のレイテンシでストリームとして処理する必要がある。
本研究では, フレキシブルで高品質なモーションスタイルのトランスファー手法を実現する。
本研究では,エンコーダ・リカレント・デコーダ構造と特徴的注意と時間的注意を組み合わせた新たな識別器を用いて,オンラインで動作をスタイリングするスタイルトランスファーモデルであるStyle-ERDを提案する。
本手法は,動作を統一モデルで複数のターゲットスタイルに分類する。
提案手法はオンライン設定を対象としているが,動作リアリズムやスタイル表現性において従来のオフライン手法よりも優れ,実行効率に大きな向上をもたらす。
関連論文リスト
- Decoupling Contact for Fine-Grained Motion Style Transfer [21.61658765014968]
モーションスタイルの転送は、その内容を維持しながら動きのスタイルを変え、コンピュータアニメーションやゲームに有用である。
動作スタイルの伝達において、接触を分離して制御し、きめ細かい制御を行う方法は不明である。
本研究では,触覚の自然な動きと時空間変動を両立させながら,接触のきめ細かい制御を行う新しいスタイル伝達法を提案する。
論文 参考訳(メタデータ) (2024-09-09T07:33:14Z) - SMooDi: Stylized Motion Diffusion Model [46.293854851116215]
本稿では、コンテンツテキストとスタイルシーケンスによって駆動されるスタイル化された動作を生成するための、SMooDiと呼ばれる新しいスティル化モーション拡散モデルを提案する。
提案手法は,従来のスタイル化動作生成手法よりも優れていた。
論文 参考訳(メタデータ) (2024-07-17T17:59:42Z) - MoST: Motion Style Transformer between Diverse Action Contents [23.62426940733713]
そこで本研究では,コンテンツからスタイルを効果的に切り離し,ソースモーションから転送されたスタイルを持つ可視動作を生成する新しい動き変換器を提案する。
提案手法は既存の手法より優れており,特に異なる内容のモーションペアにおいて,後処理を必要とせず,非常に高品質であることを示す。
論文 参考訳(メタデータ) (2024-03-10T14:11:25Z) - MotionCrafter: One-Shot Motion Customization of Diffusion Models [66.44642854791807]
ワンショットのインスタンス誘導モーションカスタマイズ手法であるMotionCrafterを紹介する。
MotionCrafterは、基準運動をベースモデルの時間成分に注入する並列時空間アーキテクチャを採用している。
トレーニング中、凍結ベースモデルは外見の正規化を提供し、運動から効果的に外見を分離する。
論文 参考訳(メタデータ) (2023-12-08T16:31:04Z) - VMC: Video Motion Customization using Temporal Attention Adaption for
Text-to-Video Diffusion Models [58.93124686141781]
Video Motion Customization (VMC) はビデオ拡散モデルに時間的注意層を適応させる新しいワンショットチューニング手法である。
本研究では, 連続するフレーム間の残留ベクトルを運動基準として用いた新しい運動蒸留法を提案する。
実世界のさまざまな動きや状況にまたがる最先端のビデオ生成モデルに対して,本手法の有効性を検証した。
論文 参考訳(メタデータ) (2023-12-01T06:50:11Z) - Online Motion Style Transfer for Interactive Character Control [5.6151459129070505]
本稿では,ユーザ制御下で異なるスタイルの動作を生成し,リアルタイムに動作スタイルを伝達するエンド・ツー・エンドニューラルネットワークを提案する。
本手法は手作りのフェーズ機能の使用を排除し,ゲームシステムに容易にトレーニングし,直接デプロイすることができる。
論文 参考訳(メタデータ) (2022-03-30T15:23:37Z) - Real-Time Style Modelling of Human Locomotion via Feature-Wise
Transformations and Local Motion Phases [13.034241298005044]
本稿では、アニメーション合成ネットワークを用いて、局所的な動き位相に基づく動きコンテンツをモデル化するスタイルモデリングシステムを提案する。
追加のスタイル変調ネットワークは、機能ワイズ変換を使用してリアルタイムでスタイルを変調する。
リアルタイムスタイルモデリングの他の手法と比較して,動作品質を向上しつつ,そのスタイル表現においてより堅牢で効率的であることを示す。
論文 参考訳(メタデータ) (2022-01-12T12:25:57Z) - AMP: Adversarial Motion Priors for Stylized Physics-Based Character
Control [145.61135774698002]
我々は,与えられたシナリオで追跡するキャラクタの動作を選択するための完全自動化手法を提案する。
キャラクタが実行するべきハイレベルなタスク目標は、比較的単純な報酬関数によって指定できる。
キャラクタの動作の低レベルスタイルは、非構造化モーションクリップのデータセットによって指定できる。
本システムでは,最先端のトラッキング技術に匹敵する高品質な動作を生成する。
論文 参考訳(メタデータ) (2021-04-05T22:43:14Z) - Animating Pictures with Eulerian Motion Fields [90.30598913855216]
静止画をリアルなアニメーションループ映像に変換する完全自動手法を示す。
流れ水や吹く煙など,連続流体運動の場面を対象とする。
本稿では,前向きと後向きの両方に特徴を流し,その結果をブレンドする新しいビデオループ手法を提案する。
論文 参考訳(メタデータ) (2020-11-30T18:59:06Z) - Unpaired Motion Style Transfer from Video to Animation [74.15550388701833]
1つのアニメーションクリップからもう1つのアニメーションクリップへモーションスタイルを転送する一方で、後者のモーションコンテンツを保存することは、キャラクターアニメーションにおいて長年の課題であった。
本稿では,スタイルラベル付き動きの集合から学習する動きスタイル伝達のための新しいデータ駆動フレームワークを提案する。
本フレームワークでは,映像から直接動作スタイルを抽出し,3次元再構成をバイパスし,これらを3次元入力動作に適用することができる。
論文 参考訳(メタデータ) (2020-05-12T13:21:27Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。