論文の概要: Motion In-Betweening with Phase Manifolds
- arxiv url: http://arxiv.org/abs/2308.12751v1
- Date: Thu, 24 Aug 2023 12:56:39 GMT
- ステータス: 処理完了
- システム内更新日: 2023-08-25 14:06:06.982728
- Title: Motion In-Betweening with Phase Manifolds
- Title(参考訳): 位相マニフォールドを用いた動作間移動
- Authors: Paul Starke, Sebastian Starke, Taku Komura, Frank Steinicke
- Abstract要約: 本稿では,周期的オートエンコーダによって学習された位相変数を利用して,文字のターゲットポーズに到達するための,新たなデータ駆動型動作制御システムを提案する。
提案手法では,経験的ニューラルネットワークモデルを用いて,空間と時間の両方のクラスタの動きを,異なる専門家の重みで解析する。
- 参考スコア(独自算出の注目度): 29.673541655825332
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: This paper introduces a novel data-driven motion in-betweening system to
reach target poses of characters by making use of phases variables learned by a
Periodic Autoencoder. Our approach utilizes a mixture-of-experts neural network
model, in which the phases cluster movements in both space and time with
different expert weights. Each generated set of weights then produces a
sequence of poses in an autoregressive manner between the current and target
state of the character. In addition, to satisfy poses which are manually
modified by the animators or where certain end effectors serve as constraints
to be reached by the animation, a learned bi-directional control scheme is
implemented to satisfy such constraints. The results demonstrate that using
phases for motion in-betweening tasks sharpen the interpolated movements, and
furthermore stabilizes the learning process. Moreover, using phases for motion
in-betweening tasks can also synthesize more challenging movements beyond
locomotion behaviors. Additionally, style control is enabled between given
target keyframes. Our proposed framework can compete with popular
state-of-the-art methods for motion in-betweening in terms of motion quality
and generalization, especially in the existence of long transition durations.
Our framework contributes to faster prototyping workflows for creating animated
character sequences, which is of enormous interest for the game and film
industry.
- Abstract(参考訳): 本稿では,周期的オートエンコーダによって学習される位相変数を用いて,文字のターゲットポーズに到達可能な新しいデータ駆動動作インインターインターホンシステムを提案する。
提案手法では,経験的ニューラルネットワークモデルを用いて,空間と時間の両方におけるクラスタの移動を,異なる専門家の重みで行う。
生成された各重みのセットは、キャラクタの現在の状態とターゲット状態の間の自己回帰的なポーズのシーケンスを生成する。
また、アニメーターが手動で修正したポーズや、アニメーションが到達する制約となるエンドエフェクタを満足させるため、このような制約を満たすために学習された双方向制御スキームが実装される。
その結果,タスク間の動作に位相を用いると補間動作が鋭くなり,さらに学習プロセスが安定化することが示された。
さらに、動作中の動作にフェーズを使用することで、移動行動を超えたより困難な動作を合成することもできる。
さらに、所定のターゲットキーフレーム間でスタイル制御が可能である。
提案手法は, 動きの質や一般化, 特に長い遷移時間の存在において, 最新の動きの手法と競合することができる。
本フレームワークは,ゲームや映画産業にとって大きな関心事であるアニメーションキャラクタシーケンスを作成するための高速なプロトタイピングワークフローに寄与する。
関連論文リスト
- Seamless Human Motion Composition with Blended Positional Encodings [38.85158088021282]
後処理や冗長な復調ステップを伴わずにシームレスなヒューマン・モーション・コンポジション(HMC)を生成する最初の拡散モデルであるフローMDMを紹介する。
我々はBabelとHumanML3Dデータセットの精度、リアリズム、スムーズさの観点から最先端の結果を得る。
論文 参考訳(メタデータ) (2024-02-23T18:59:40Z) - DiffusionPhase: Motion Diffusion in Frequency Domain [69.811762407278]
そこで本研究では,テキスト記述から高品質な人間の動作系列を生成する学習手法を提案する。
既存の技術は、任意の長さの動き列を生成する際に、動きの多様性と滑らかな遷移に苦しむ。
動作空間をコンパクトで表現力のあるパラメータ化位相空間に変換するネットワークエンコーダを開発する。
論文 参考訳(メタデータ) (2023-12-07T04:39:22Z) - Generative Hierarchical Temporal Transformer for Hand Action Recognition
and Motion Prediction [70.86769090545076]
本稿では,手の動き認識と3次元手の動き予測を同時に行う新しいフレームワークを提案する。
フレームワークは複数のデータセットにまたがってトレーニングされ、ポーズとアクションブロックは個別にトレーニングされ、ポーズアクションアノテーションを完全に活用する。
論文 参考訳(メタデータ) (2023-11-29T05:28:39Z) - Controllable Motion Diffusion Model [59.52889433954535]
制御可能な運動拡散モデル(COMODO)の枠組みを提案する。
我々のフレームワークは自動回帰運動拡散モデル(A-MDM)から始まり、ステップごとに動きのシーケンスを生成する。
そこで本研究では,A-MDMモデル上での強化学習に基づく制御手法を提案する。
論文 参考訳(メタデータ) (2023-06-01T07:48:34Z) - NEURAL MARIONETTE: A Transformer-based Multi-action Human Motion
Synthesis System [51.43113919042621]
本稿では,長期・多動作型人体動作合成のためのニューラルネットワークシステムを提案する。
このシステムは、単純なユーザ入力からスムーズな遷移を伴う有意義な動作を生成することができる。
また,マルチアクション動作合成タスクに特化した新しいデータセットを提案する。
論文 参考訳(メタデータ) (2022-09-27T07:10:20Z) - Weakly-supervised Action Transition Learning for Stochastic Human Motion
Prediction [81.94175022575966]
動作駆動型人間の動作予測の課題について紹介する。
一連の動作ラベルと短い動作履歴から、複数の可算な将来の動作を予測することを目的としている。
論文 参考訳(メタデータ) (2022-05-31T08:38:07Z) - Real-time Controllable Motion Transition for Characters [14.88407656218885]
リアルタイムの動作生成はゲームでは普遍的に必要であり、既存のアニメーションパイプラインでは非常に望ましい。
我々のアプローチは、運動多様体と条件遷移という2つの重要な構成要素から構成される。
提案手法は,複数の測定基準の下で測定された高品質な動きを生成できることを示す。
論文 参考訳(メタデータ) (2022-05-05T10:02:54Z) - AMP: Adversarial Motion Priors for Stylized Physics-Based Character
Control [145.61135774698002]
我々は,与えられたシナリオで追跡するキャラクタの動作を選択するための完全自動化手法を提案する。
キャラクタが実行するべきハイレベルなタスク目標は、比較的単純な報酬関数によって指定できる。
キャラクタの動作の低レベルスタイルは、非構造化モーションクリップのデータセットによって指定できる。
本システムでは,最先端のトラッキング技術に匹敵する高品質な動作を生成する。
論文 参考訳(メタデータ) (2021-04-05T22:43:14Z) - Robust Motion In-betweening [17.473287573543065]
本稿では,3次元アニメーターのための新しいツールとして機能する,新しい頑健な遷移生成技術を提案する。
このシステムは、時間的にスパーサをアニメーションの制約として使用する高品質な動作を合成する。
私たちは、トレーニングされたモデルを使用して運用シナリオで相互運用を行う、カスタムのMotionBuilderプラグインを紹介します。
論文 参考訳(メタデータ) (2021-02-09T16:52:45Z) - Generative Tweening: Long-term Inbetweening of 3D Human Motions [40.16462039509098]
本稿では,ヒトの動作の長期的包摂を行う,生体力学的に制約された生成的敵ネットワークを提案する。
我々は79種類のキャプチャー・モーション・データをトレーニングし、ネットワークは様々な複雑なモーション・スタイルで頑健に動作した。
論文 参考訳(メタデータ) (2020-05-18T17:04:34Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。