論文の概要: Real-Time Style Modelling of Human Locomotion via Feature-Wise
Transformations and Local Motion Phases
- arxiv url: http://arxiv.org/abs/2201.04439v1
- Date: Wed, 12 Jan 2022 12:25:57 GMT
- ステータス: 処理完了
- システム内更新日: 2022-01-13 14:01:36.042886
- Title: Real-Time Style Modelling of Human Locomotion via Feature-Wise
Transformations and Local Motion Phases
- Title(参考訳): 特徴量変換と局所運動位相による人体移動のリアルタイムモデリング
- Authors: Ian Mason, Sebastian Starke, Taku Komura
- Abstract要約: 本稿では、アニメーション合成ネットワークを用いて、局所的な動き位相に基づく動きコンテンツをモデル化するスタイルモデリングシステムを提案する。
追加のスタイル変調ネットワークは、機能ワイズ変換を使用してリアルタイムでスタイルを変調する。
リアルタイムスタイルモデリングの他の手法と比較して,動作品質を向上しつつ,そのスタイル表現においてより堅牢で効率的であることを示す。
- 参考スコア(独自算出の注目度): 13.034241298005044
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Controlling the manner in which a character moves in a real-time animation
system is a challenging task with useful applications. Existing style transfer
systems require access to a reference content motion clip, however, in
real-time systems the future motion content is unknown and liable to change
with user input. In this work we present a style modelling system that uses an
animation synthesis network to model motion content based on local motion
phases. An additional style modulation network uses feature-wise
transformations to modulate style in real-time. To evaluate our method, we
create and release a new style modelling dataset, 100STYLE, containing over 4
million frames of stylised locomotion data in 100 different styles that present
a number of challenges for existing systems. To model these styles, we extend
the local phase calculation with a contact-free formulation. In comparison to
other methods for real-time style modelling, we show our system is more robust
and efficient in its style representation while improving motion quality.
- Abstract(参考訳): リアルタイムアニメーションシステムにおけるキャラクタの動作方法の制御は,有用なアプリケーションでは難しい課題である。
既存のスタイル転送システムは、参照コンテンツモーションクリップへのアクセスを必要とするが、リアルタイムシステムでは、将来のモーションコンテンツは未知であり、ユーザ入力で変更できない。
本稿では,アニメーション合成ネットワークを用いて,局所的な動き相に基づく動作内容のモデル化を行うスタイルモデリングシステムを提案する。
追加のスタイル変調ネットワークは、リアルタイムにスタイルを変調するために特徴的変換を使用する。
提案手法を評価するために,400万フレーム以上のスタイリッシュなロコモーションデータを含む新しいスタイルモデリングデータセット100styleを,既存のシステムに対して多くの課題を呈する100種類のスタイルで作成し,公開する。
これらのスタイルをモデル化するために、局所位相計算を接触のない定式化で拡張する。
リアルタイムスタイルモデリングのための他の手法と比較して,動作品質を改善しつつ,そのスタイル表現においてより堅牢で効率的なシステムを示す。
関連論文リスト
- SMooDi: Stylized Motion Diffusion Model [46.293854851116215]
本稿では、コンテンツテキストとスタイルシーケンスによって駆動されるスタイル化された動作を生成するための、SMooDiと呼ばれる新しいスティル化モーション拡散モデルを提案する。
提案手法は,従来のスタイル化動作生成手法よりも優れていた。
論文 参考訳(メタデータ) (2024-07-17T17:59:42Z) - Taming Diffusion Probabilistic Models for Character Control [46.52584236101806]
本稿では,様々なユーザからの制御信号にリアルタイムで応答する新しい文字制御フレームワークを提案する。
本手法の核心は変圧器を用いた条件付き自己回帰運動拡散モデルである。
我々の研究は、高品質で多様なキャラクターアニメーションをリアルタイムに生成できる最初のモデルである。
論文 参考訳(メタデータ) (2024-04-23T15:20:17Z) - MotionCrafter: One-Shot Motion Customization of Diffusion Models [66.44642854791807]
ワンショットのインスタンス誘導モーションカスタマイズ手法であるMotionCrafterを紹介する。
MotionCrafterは、基準運動をベースモデルの時間成分に注入する並列時空間アーキテクチャを採用している。
トレーニング中、凍結ベースモデルは外見の正規化を提供し、運動から効果的に外見を分離する。
論文 参考訳(メタデータ) (2023-12-08T16:31:04Z) - Customizing Motion in Text-to-Video Diffusion Models [79.4121510826141]
動作をカスタマイズしたテキスト・ビデオ・ジェネレーション・モデルを構築するためのアプローチを提案する。
入力として特定の動きを示すビデオサンプルを活用することで,入力動作パターンを多種多様なテキスト特定シナリオに対して学習し,一般化する。
論文 参考訳(メタデータ) (2023-12-07T18:59:03Z) - AnimateDiff: Animate Your Personalized Text-to-Image Diffusion Models
without Specific Tuning [92.33690050667475]
AnimateDiffは、モデル固有のチューニングを必要とせずに、パーソナライズされたT2Iモデルをアニメーションするためのフレームワークである。
我々は,AnimateDiffの軽量微調整技術であるMotionLoRAを提案する。
その結果,これらのモデルが視覚的品質と動きの多様性を保ちながら,時間的にスムーズなアニメーションクリップを生成するのに有効であることが示唆された。
論文 参考訳(メタデータ) (2023-07-10T17:34:16Z) - RSMT: Real-time Stylized Motion Transition for Characters [15.856276818061891]
実時間ストライズされた動き遷移法(RSMT)を提案する。
本手法は, 一般運動多様体モデルとスタイル運動サンプリング器の2つの重要な独立成分から構成される。
提案手法は, 高速, 高品質, 汎用性, 制御可能であることを証明した。
論文 参考訳(メタデータ) (2023-06-21T01:50:04Z) - Online Motion Style Transfer for Interactive Character Control [5.6151459129070505]
本稿では,ユーザ制御下で異なるスタイルの動作を生成し,リアルタイムに動作スタイルを伝達するエンド・ツー・エンドニューラルネットワークを提案する。
本手法は手作りのフェーズ機能の使用を排除し,ゲームシステムに容易にトレーニングし,直接デプロイすることができる。
論文 参考訳(メタデータ) (2022-03-30T15:23:37Z) - Style-ERD: Responsive and Coherent Online Motion Style Transfer [13.15016322155052]
スタイル転送はキャラクターアニメーションを豊かにする一般的な方法である。
動きをオンラインでスタイル化するための新しいスタイル転送モデルであるStyle-ERDを提案する。
本手法は,動作を複数のターゲットスタイルに統一したモデルでスタイリングする。
論文 参考訳(メタデータ) (2022-03-04T21:12:09Z) - Dance In the Wild: Monocular Human Animation with Neural Dynamic
Appearance Synthesis [56.550999933048075]
そこで本研究では,課題に対処し,高品質な映像合成手法を提案する。
動的外見変化を捉えるために発電機重量を変調するために用いられる新しい動きシグネチャを導入する。
提案手法を課題ビデオの集合上で評価し,その手法が質的かつ定量的に最先端のパフォーマンスを達成することを示す。
論文 参考訳(メタデータ) (2021-11-10T20:18:57Z) - AMP: Adversarial Motion Priors for Stylized Physics-Based Character
Control [145.61135774698002]
我々は,与えられたシナリオで追跡するキャラクタの動作を選択するための完全自動化手法を提案する。
キャラクタが実行するべきハイレベルなタスク目標は、比較的単純な報酬関数によって指定できる。
キャラクタの動作の低レベルスタイルは、非構造化モーションクリップのデータセットによって指定できる。
本システムでは,最先端のトラッキング技術に匹敵する高品質な動作を生成する。
論文 参考訳(メタデータ) (2021-04-05T22:43:14Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。