論文の概要: Motion Capture Dataset for Practical Use of AI-based Motion Editing and
Stylization
- arxiv url: http://arxiv.org/abs/2306.08861v1
- Date: Thu, 15 Jun 2023 05:12:54 GMT
- ステータス: 処理完了
- システム内更新日: 2023-06-16 16:34:43.031014
- Title: Motion Capture Dataset for Practical Use of AI-based Motion Editing and
Stylization
- Title(参考訳): AIに基づくモーション編集とスティル化のためのモーションキャプチャデータセット
- Authors: Makito Kobayashi, Chen-Chieh Liao, Keito Inoue, Sentaro Yojima,
Masafumi Takahashi
- Abstract要約: そこで我々は,動きスタイル伝達領域のための新しいスタイル多様性データセットを提案する。
運動データセットは産業標準のヒト骨構造を使用する。
我々は,最先端技術を用いた実験において,動作スタイルの伝達に関する包括的な研究を行う。
- 参考スコア(独自算出の注目度): 1.3999481573773074
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: In this work, we proposed a new style-diverse dataset for the domain of
motion style transfer. The motion dataset uses an industrial-standard human
bone structure and thus is industry-ready to be plugged into 3D characters for
many projects. We claim the challenges in motion style transfer and encourage
future work in this domain by releasing the proposed motion dataset to the
public. We conduct a comprehensive study on motion style transfer in the
experiment using the state-of-the-art method, and the results show the proposed
dataset's validity for the motion style transfer task.
- Abstract(参考訳): そこで本研究では,動きスタイル伝達領域のための新しいスタイル多様性データセットを提案する。
モーションデータセットは産業標準の人骨構造を用いており、多くのプロジェクトのために3D文字に差し込むことができる。
我々はモーションスタイル転送の課題を主張し,提案するモーションデータセットを一般向けに公開することにより,この領域における今後の作業を促進する。
本研究は,最先端手法を用いた実験において,モーションスタイル転送に関する包括的研究を行い,提案するデータセットがモーションスタイル転送タスクに有効であることを示す。
関連論文リスト
- Exploring Vision Transformers for 3D Human Motion-Language Models with Motion Patches [12.221087476416056]
動き系列の新しい表現である「動きパッチ」を導入し、移動学習を通して視覚変換器(ViT)をモーションエンコーダとして用いることを提案する。
これらの動きパッチは、運動配列に基づく骨格関節の分割と分類によって作成され、様々な骨格構造に対して堅牢である。
2次元画像データを用いたトレーニングにより得られたViTの事前学習による伝達学習により,動作解析の性能が向上することが判明した。
論文 参考訳(メタデータ) (2024-05-08T02:42:27Z) - Choreographing the Digital Canvas: A Machine Learning Approach to Artistic Performance [9.218587190403174]
本稿では,属性記述に基づく芸術演奏のためのデザインツールについて紹介する。
このプラットフォームは、新しい機械学習(ML)モデルとインタラクティブインターフェースを統合して、芸術的な動きを生成、視覚化する。
論文 参考訳(メタデータ) (2024-03-26T01:42:13Z) - DEMOS: Dynamic Environment Motion Synthesis in 3D Scenes via Local
Spherical-BEV Perception [54.02566476357383]
本研究では,動的環境運動合成フレームワーク(DEMOS)を提案する。
次に、最終動作合成のために潜在動作を動的に更新する。
その結果,本手法は従来の手法よりも優れ,動的環境の処理性能も優れていた。
論文 参考訳(メタデータ) (2024-03-04T05:38:16Z) - Motion Flow Matching for Human Motion Synthesis and Editing [75.13665467944314]
本研究では,効率的なサンプリングと効率性を備えた人体運動生成のための新しい生成モデルであるemphMotion Flow Matchingを提案する。
提案手法は, 従来の拡散モデルにおいて, サンプリングの複雑さを1000ステップから10ステップに減らし, テキスト・ツー・モーション・ジェネレーション・ベンチマークやアクション・ツー・モーション・ジェネレーション・ベンチマークで同等の性能を実現する。
論文 参考訳(メタデータ) (2023-12-14T12:57:35Z) - Orientation-Aware Leg Movement Learning for Action-Driven Human Motion
Prediction [7.150292351809277]
行動駆動型人間の動き予測は、観察されたシーケンスに基づいて将来の人間の動きを予測することを目的としている。
複数のアクションラベル間のスムーズで現実的な遷移をモデル化する必要がある。
1つのデータセット上でトレーニングした中間学習モデルを、2つの目に見えない大規模な動きデータセットに一般化し、自然な遷移を生成する。
論文 参考訳(メタデータ) (2023-10-23T13:16:51Z) - MotionTrack: Learning Motion Predictor for Multiple Object Tracking [68.68339102749358]
本研究では,学習可能なモーション予測器を中心に,新しいモーショントラッカーであるMotionTrackを紹介する。
実験結果から、MotionTrackはDancetrackやSportsMOTといったデータセット上での最先端のパフォーマンスを示す。
論文 参考訳(メタデータ) (2023-06-05T04:24:11Z) - Motion-R3: Fast and Accurate Motion Annotation via Representation-based
Representativeness Ranking [12.780640149625743]
与えられたデータセットにおける動きデータ固有の代表性に基づく新しい動きアノテーション手法を提案する。
その高い効率のおかげで、我々の手法は特に頻繁な要求の変化に反応し、モーションアノテーションモデルのアジャイル開発を可能にします。
論文 参考訳(メタデータ) (2023-04-04T09:58:58Z) - Motion Style Transfer: Modular Low-Rank Adaptation for Deep Motion
Forecasting [79.56014465244644]
本稿では,新しい領域への深部動き予測モデルを効率的に適用するための伝達学習手法を提案する。
エンコーダ全体を更新する従来の微調整アプローチとは異なり、主な考え方は調整可能なパラメータの量を減らすことである。
提案するアダプタ設計であるMoSAは,いくつかの予測ベンチマークにおいて,先行手法よりも優れていることを示す。
論文 参考訳(メタデータ) (2022-11-06T16:14:17Z) - Motion Transformer with Global Intention Localization and Local Movement
Refinement [103.75625476231401]
動き TRansformer (MTR) は、大域的意図の局所化と局所的な動きの洗練の合同最適化として、動き予測をモデル化する。
MTRは、限界運動予測と関節運動予測の両方において最先端の性能を達成する。
論文 参考訳(メタデータ) (2022-09-27T16:23:14Z) - MoDi: Unconditional Motion Synthesis from Diverse Data [51.676055380546494]
多様な動きを合成する無条件生成モデルであるMoDiを提案する。
我々のモデルは、多様な、構造化されていない、ラベルなしのモーションデータセットから完全に教師なしの設定で訓練されている。
データセットに構造が欠けているにもかかわらず、潜在空間は意味的にクラスタ化可能であることを示す。
論文 参考訳(メタデータ) (2022-06-16T09:06:25Z) - Recognition and Synthesis of Object Transport Motion [0.0]
このプロジェクトでは、小さなモーションキャプチャデータセット上で、特別なデータ拡張テクニックとともに、ディープ畳み込みネットワークをどのように使用できるかを説明します。
このプロジェクトは、運動合成のより複雑なタスクのために、これらの同じ拡張テクニックをどのようにスケールアップするかを示している。
近年のGAN(Generative Adversarial Models)の概念、特にWasserstein GAN(英語版)の展開を探求することにより、このプロジェクトは生命に似た物体の移動運動をうまく生成できるモデルの概要を述べる。
論文 参考訳(メタデータ) (2020-09-27T22:13:26Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。