論文の概要: Real-time Controllable Motion Transition for Characters
- arxiv url: http://arxiv.org/abs/2205.02540v1
- Date: Thu, 5 May 2022 10:02:54 GMT
- ステータス: 処理完了
- システム内更新日: 2022-05-07 00:28:36.002134
- Title: Real-time Controllable Motion Transition for Characters
- Title(参考訳): 文字のリアルタイム制御可能な動き遷移
- Authors: Xiangjun Tang, He Wang, Bo Hu, Xu Gong, Ruifan Yi, Qilong Kou,
Xiaogang Jin
- Abstract要約: リアルタイムの動作生成はゲームでは普遍的に必要であり、既存のアニメーションパイプラインでは非常に望ましい。
我々のアプローチは、運動多様体と条件遷移という2つの重要な構成要素から構成される。
提案手法は,複数の測定基準の下で測定された高品質な動きを生成できることを示す。
- 参考スコア(独自算出の注目度): 14.88407656218885
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Real-time in-between motion generation is universally required in games and
highly desirable in existing animation pipelines. Its core challenge lies in
the need to satisfy three critical conditions simultaneously: quality,
controllability and speed, which renders any methods that need offline
computation (or post-processing) or cannot incorporate (often unpredictable)
user control undesirable. To this end, we propose a new real-time transition
method to address the aforementioned challenges. Our approach consists of two
key components: motion manifold and conditional transitioning. The former
learns the important low-level motion features and their dynamics; while the
latter synthesizes transitions conditioned on a target frame and the desired
transition duration. We first learn a motion manifold that explicitly models
the intrinsic transition stochasticity in human motions via a multi-modal
mapping mechanism. Then, during generation, we design a transition model which
is essentially a sampling strategy to sample from the learned manifold, based
on the target frame and the aimed transition duration. We validate our method
on different datasets in tasks where no post-processing or offline computation
is allowed. Through exhaustive evaluation and comparison, we show that our
method is able to generate high-quality motions measured under multiple
metrics. Our method is also robust under various target frames (with extreme
cases).
- Abstract(参考訳): リアルタイムのモーション生成はゲームでは普遍的に必要であり、既存のアニメーションパイプラインでは非常に望ましい。
品質、制御可能性、速度の3つの重要な条件を同時に満たさなければならない。オフラインの計算(あるいは後処理)が必要なメソッドをレンダリングしたり、望ましくないユーザコントロール(予測不能なものが多い)を組み込むことができない。
そこで本稿では,上記の課題に対処する新たなリアルタイム移行手法を提案する。
我々のアプローチは運動多様体と条件遷移という2つの重要な構成要素から構成される。
前者は重要な低レベル運動特徴とそのダイナミクスを学習し、後者は目標フレームと所望の遷移期間で条件付き遷移を合成する。
まず、マルチモーダルマッピング機構を用いて、人間の動きの内在的遷移確率を明示的にモデル化する運動多様体を学習する。
そして,生成期間中に,対象のフレームと目的の遷移期間に基づいて,学習した多様体からサンプルをサンプリングする手法である遷移モデルを設計する。
処理後やオフラインの計算が許可されていないタスクの異なるデータセット上で,提案手法を検証する。
本手法は, 徹底的な評価と比較を行い, 複数の測定値で測定した高品質な動作を生成できることを示す。
また,本手法は様々な対象フレーム(極端な場合)において頑健である。
関連論文リスト
- Deciphering Movement: Unified Trajectory Generation Model for Multi-Agent [53.637837706712794]
任意の軌道をマスク入力として処理する統一軌道生成モデルUniTrajを提案する。
具体的には,空間特徴抽出のためのトランスフォーマーエンコーダ内に埋め込まれたゴースト空間マスキング(GSM)モジュールを導入する。
バスケットボール-U,サッカー-U,サッカー-Uの3つの実用的なスポーツゲームデータセットをベンチマークして評価を行った。
論文 参考訳(メタデータ) (2024-05-27T22:15:23Z) - HumMUSS: Human Motion Understanding using State Space Models [6.821961232645209]
本稿では,最近の状態空間モデルの発展にともなう,人間の動作理解構築のための新しいアテンションフリーモデルを提案する。
私たちのモデルはオフラインとリアルタイムの両方のアプリケーションをサポートします。
リアルタイムの逐次予測では、このモデルはトランスフォーマーベースのアプローチよりもメモリ効率が高く、数倍高速である。
論文 参考訳(メタデータ) (2024-04-16T19:59:21Z) - DiffusionPhase: Motion Diffusion in Frequency Domain [69.811762407278]
そこで本研究では,テキスト記述から高品質な人間の動作系列を生成する学習手法を提案する。
既存の技術は、任意の長さの動き列を生成する際に、動きの多様性と滑らかな遷移に苦しむ。
動作空間をコンパクトで表現力のあるパラメータ化位相空間に変換するネットワークエンコーダを開発する。
論文 参考訳(メタデータ) (2023-12-07T04:39:22Z) - Motion In-Betweening with Phase Manifolds [29.673541655825332]
本稿では,周期的オートエンコーダによって学習された位相変数を利用して,文字のターゲットポーズに到達するための,新たなデータ駆動型動作制御システムを提案する。
提案手法では,経験的ニューラルネットワークモデルを用いて,空間と時間の両方のクラスタの動きを,異なる専門家の重みで解析する。
論文 参考訳(メタデータ) (2023-08-24T12:56:39Z) - Synthesizing Long-Term Human Motions with Diffusion Models via Coherent
Sampling [74.62570964142063]
テキスト・トゥ・モーション・ジェネレーションは注目されているが、既存の手法のほとんどは短期的な動きに限られている。
本稿では,2つのコヒーレントサンプリング手法を用いた過去の拡散モデルを用いた新しい手法を提案する。
提案手法は,ユーザの指示した長文ストリームによって制御された,構成的かつコヒーレントな3次元人間の動作を生成することができる。
論文 参考訳(メタデータ) (2023-08-03T16:18:32Z) - RSMT: Real-time Stylized Motion Transition for Characters [15.856276818061891]
実時間ストライズされた動き遷移法(RSMT)を提案する。
本手法は, 一般運動多様体モデルとスタイル運動サンプリング器の2つの重要な独立成分から構成される。
提案手法は, 高速, 高品質, 汎用性, 制御可能であることを証明した。
論文 参考訳(メタデータ) (2023-06-21T01:50:04Z) - Weakly-supervised Action Transition Learning for Stochastic Human Motion
Prediction [81.94175022575966]
動作駆動型人間の動作予測の課題について紹介する。
一連の動作ラベルと短い動作履歴から、複数の可算な将来の動作を予測することを目的としている。
論文 参考訳(メタデータ) (2022-05-31T08:38:07Z) - Transition Motion Tensor: A Data-Driven Approach for Versatile and
Controllable Agents in Physically Simulated Environments [6.8438089867929905]
本稿では,動きデータセットの外部に新しい,物理的に正確な遷移を生成する,データ駆動型フレームワークを提案する。
シミュレーションキャラクタは、既存のものを変更することなく、効率よく、堅牢に新しいモーションスキルを採用できる。
論文 参考訳(メタデータ) (2021-11-30T02:17:25Z) - Robust Motion In-betweening [17.473287573543065]
本稿では,3次元アニメーターのための新しいツールとして機能する,新しい頑健な遷移生成技術を提案する。
このシステムは、時間的にスパーサをアニメーションの制約として使用する高品質な動作を合成する。
私たちは、トレーニングされたモデルを使用して運用シナリオで相互運用を行う、カスタムのMotionBuilderプラグインを紹介します。
論文 参考訳(メタデータ) (2021-02-09T16:52:45Z) - Learning to Segment Rigid Motions from Two Frames [72.14906744113125]
本研究では, 運動場から独立物体の動きを復元する幾何学的解析により, モジュラーネットワークを提案する。
2つの連続フレームを入力とし、背景のセグメンテーションマスクと複数の剛体移動オブジェクトを予測し、3次元の剛体変換によってパラメータ化する。
本手法はkittiおよびsintelにおける剛体運動セグメンテーションの最先端性能を実現する。
論文 参考訳(メタデータ) (2021-01-11T04:20:30Z) - Continuous Transition: Improving Sample Efficiency for Continuous
Control Problems via MixUp [119.69304125647785]
本稿では,連続的遷移を構築するための簡潔かつ強力な手法を提案する。
具体的には、連続的な遷移を線形に補間することにより、トレーニングのための新しい遷移を合成することを提案する。
また, 建設過程を自動案内する判別器を開発した。
論文 参考訳(メタデータ) (2020-11-30T01:20:23Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。