論文の概要: D-LORD for Motion Stylization
- arxiv url: http://arxiv.org/abs/2412.04097v1
- Date: Thu, 05 Dec 2024 12:03:02 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-12-06 14:42:20.455695
- Title: D-LORD for Motion Stylization
- Title(参考訳): モーションスティル化のためのD-LORD
- Authors: Meenakshi Gupta, Mingyuan Lei, Tat-Jen Cham, Hwee Kuan Lee,
- Abstract要約: 本稿では,モーションスタイリゼーション(モーションスタイルの転送と動作)のために設計された,D-LORDという新しいフレームワークを紹介する。
このフレームワークは, 適応インスタンス正規化(Adaptive Instance Normalization)を用いて, 動作シーケンスのスタイルを他のスタイルに変換する。
このフレームワークの有効性は、動きスタイル転送のためのCMU XIAデータセット、MHADデータセット、動きのためのRRIS Abilityデータセットの3つのデータセットの実験を通じて実証されている。
- 参考スコア(独自算出の注目度): 14.234033327456109
- License:
- Abstract: This paper introduces a novel framework named D-LORD (Double Latent Optimization for Representation Disentanglement), which is designed for motion stylization (motion style transfer and motion retargeting). The primary objective of this framework is to separate the class and content information from a given motion sequence using a data-driven latent optimization approach. Here, class refers to person-specific style, such as a particular emotion or an individual's identity, while content relates to the style-agnostic aspect of an action, such as walking or jumping, as universally understood concepts. The key advantage of D-LORD is its ability to perform style transfer without needing paired motion data. Instead, it utilizes class and content labels during the latent optimization process. By disentangling the representation, the framework enables the transformation of one motion sequences style to another's style using Adaptive Instance Normalization. The proposed D-LORD framework is designed with a focus on generalization, allowing it to handle different class and content labels for various applications. Additionally, it can generate diverse motion sequences when specific class and content labels are provided. The framework's efficacy is demonstrated through experimentation on three datasets: the CMU XIA dataset for motion style transfer, the MHAD dataset, and the RRIS Ability dataset for motion retargeting. Notably, this paper presents the first generalized framework for motion style transfer and motion retargeting, showcasing its potential contributions in this area.
- Abstract(参考訳): 本稿では,D-LORD(Double Latent Optimization for Representation Disentanglement)という,動作スタイリゼーション(モーションスタイル転送とモーションリターゲティング)のためのフレームワークを提案する。
このフレームワークの主な目的は、データ駆動の潜在最適化アプローチを用いて、クラスとコンテンツ情報を与えられたモーションシーケンスから分離することである。
ここでは、クラスは特定の感情や個人のアイデンティティなどの個人固有のスタイルを指し、コンテンツは、歩行や跳躍のような行動のスタイルに依存しない側面を普遍的に理解された概念として扱う。
D-LORDの重要な利点は、ペアモーションデータを必要とせずにスタイル転送を行うことができることである。
代わりに、潜在最適化プロセス中にクラスラベルとコンテンツラベルを使用する。
このフレームワークは, 適応インスタンス正規化(Adaptive Instance Normalization)を用いて, 1つの動作シーケンススタイルを他の動作スタイルに変換することができる。
提案するD-LORDフレームワークは,様々なアプリケーションに対して異なるクラスやコンテンツラベルを扱えるように,汎用性を重視して設計されている。
さらに、特定のクラスとコンテンツラベルが提供されるとき、多様なモーションシーケンスを生成することができる。
このフレームワークの有効性は、モーションスタイル転送のためのCMU XIAデータセット、MHADデータセット、モーションリターゲティングのためのRRIS Abilityデータセットの3つのデータセットの実験を通じて実証されている。
特に,本論文では,動作スタイルの伝達と動きのリターゲティングを一般化したフレームワークとして,この領域におけるその潜在的貢献を示す。
関連論文リスト
- Generative Human Motion Stylization in Latent Space [42.831468727082694]
単一動作(遅延)符号の多種多様なスタイリング結果を生成する新しい生成モデルを提案する。
推論では、ユーザーは参照動作やラベルからスタイルキューを使用して動きをスタイル化することができる。
提案手法は, 軽量な設計にもかかわらず, スタイル再現, コンテンツ保存, 一般化において, 最先端のスタイリングモデルよりも優れていた。
論文 参考訳(メタデータ) (2024-01-24T14:53:13Z) - Act As You Wish: Fine-Grained Control of Motion Diffusion Model with
Hierarchical Semantic Graphs [31.244039305932287]
動き生成のきめ細かい制御のための階層的意味グラフを提案する。
動作記述を階層的なセマンティックグラフに分解し,3段階の動作,行動,具体性を含む。
提案手法は, コミュニティに多大な影響を及ぼす可能性のある, 生成した動きを連続的に改善することができる。
論文 参考訳(メタデータ) (2023-11-02T06:20:23Z) - SemanticBoost: Elevating Motion Generation with Augmented Textual Cues [73.83255805408126]
我々のフレームワークはセマンティック・エンハンスメント・モジュールとコンテキスト調整型モーション・デノイザ(CAMD)から構成されている。
CAMDアプローチは、高品質でセマンティックに一貫性のあるモーションシーケンスを生成するための全エンコンパスソリューションを提供する。
実験の結果,SemanticBoostは拡散法として自己回帰法よりも優れていることがわかった。
論文 参考訳(メタデータ) (2023-10-31T09:58:11Z) - MoDA: Leveraging Motion Priors from Videos for Advancing Unsupervised Domain Adaptation in Semantic Segmentation [61.4598392934287]
本研究は、対象ドメインが未ラベルのビデオフレームを含む異なるUDAシナリオを紹介する。
我々は textbfMotion-guided textbfDomain textbfAdaptive semantic segmentation framework (MoDA) を設計する。
MoDAは、セグメンテーションタスクのクロスドメインアライメントを容易にするために、自己教師対象のモーションキューを利用する。
論文 参考訳(メタデータ) (2023-09-21T01:31:54Z) - Motion Capture Dataset for Practical Use of AI-based Motion Editing and
Stylization [1.3999481573773074]
そこで我々は,動きスタイル伝達領域のための新しいスタイル多様性データセットを提案する。
運動データセットは産業標準のヒト骨構造を使用する。
我々は,最先端技術を用いた実験において,動作スタイルの伝達に関する包括的な研究を行う。
論文 参考訳(メタデータ) (2023-06-15T05:12:54Z) - MoDi: Unconditional Motion Synthesis from Diverse Data [51.676055380546494]
多様な動きを合成する無条件生成モデルであるMoDiを提案する。
我々のモデルは、多様な、構造化されていない、ラベルなしのモーションデータセットから完全に教師なしの設定で訓練されている。
データセットに構造が欠けているにもかかわらず、潜在空間は意味的にクラスタ化可能であることを示す。
論文 参考訳(メタデータ) (2022-06-16T09:06:25Z) - Unsupervised Motion Representation Learning with Capsule Autoencoders [54.81628825371412]
Motion Capsule Autoencoder (MCAE) は、2レベル階層のモーションをモデル化する。
MCAEは、新しいTrajectory20モーションデータセットと、様々な現実世界の骨格に基づく人間のアクションデータセットで評価されている。
論文 参考訳(メタデータ) (2021-10-01T16:52:03Z) - AMP: Adversarial Motion Priors for Stylized Physics-Based Character
Control [145.61135774698002]
我々は,与えられたシナリオで追跡するキャラクタの動作を選択するための完全自動化手法を提案する。
キャラクタが実行するべきハイレベルなタスク目標は、比較的単純な報酬関数によって指定できる。
キャラクタの動作の低レベルスタイルは、非構造化モーションクリップのデータセットによって指定できる。
本システムでは,最先端のトラッキング技術に匹敵する高品質な動作を生成する。
論文 参考訳(メタデータ) (2021-04-05T22:43:14Z) - Unpaired Motion Style Transfer from Video to Animation [74.15550388701833]
1つのアニメーションクリップからもう1つのアニメーションクリップへモーションスタイルを転送する一方で、後者のモーションコンテンツを保存することは、キャラクターアニメーションにおいて長年の課題であった。
本稿では,スタイルラベル付き動きの集合から学習する動きスタイル伝達のための新しいデータ駆動フレームワークを提案する。
本フレームワークでは,映像から直接動作スタイルを抽出し,3次元再構成をバイパスし,これらを3次元入力動作に適用することができる。
論文 参考訳(メタデータ) (2020-05-12T13:21:27Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。