論文の概要: Motion Capture Dataset for Practical Use of AI-based Motion Editing and
Stylization
- arxiv url: http://arxiv.org/abs/2306.08861v1
- Date: Thu, 15 Jun 2023 05:12:54 GMT
- ステータス: 処理完了
- システム内更新日: 2023-06-16 16:34:43.031014
- Title: Motion Capture Dataset for Practical Use of AI-based Motion Editing and
Stylization
- Title(参考訳): AIに基づくモーション編集とスティル化のためのモーションキャプチャデータセット
- Authors: Makito Kobayashi, Chen-Chieh Liao, Keito Inoue, Sentaro Yojima,
Masafumi Takahashi
- Abstract要約: そこで我々は,動きスタイル伝達領域のための新しいスタイル多様性データセットを提案する。
運動データセットは産業標準のヒト骨構造を使用する。
我々は,最先端技術を用いた実験において,動作スタイルの伝達に関する包括的な研究を行う。
- 参考スコア(独自算出の注目度): 1.3999481573773074
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: In this work, we proposed a new style-diverse dataset for the domain of
motion style transfer. The motion dataset uses an industrial-standard human
bone structure and thus is industry-ready to be plugged into 3D characters for
many projects. We claim the challenges in motion style transfer and encourage
future work in this domain by releasing the proposed motion dataset to the
public. We conduct a comprehensive study on motion style transfer in the
experiment using the state-of-the-art method, and the results show the proposed
dataset's validity for the motion style transfer task.
- Abstract(参考訳): そこで本研究では,動きスタイル伝達領域のための新しいスタイル多様性データセットを提案する。
モーションデータセットは産業標準の人骨構造を用いており、多くのプロジェクトのために3D文字に差し込むことができる。
我々はモーションスタイル転送の課題を主張し,提案するモーションデータセットを一般向けに公開することにより,この領域における今後の作業を促進する。
本研究は,最先端手法を用いた実験において,モーションスタイル転送に関する包括的研究を行い,提案するデータセットがモーションスタイル転送タスクに有効であることを示す。
関連論文リスト
- Quo Vadis, Motion Generation? From Large Language Models to Large Motion Models [70.78051873517285]
我々は、最初の100万レベルのモーション生成ベンチマークであるMotionBaseを紹介する。
この膨大なデータセットを活用することで、我々の大きな動きモデルは幅広い動きに対して強いパフォーマンスを示す。
動作情報を保存し,コードブックの容量を拡大する,モーショントークン化のための新しい2次元ルックアップフリーアプローチを提案する。
論文 参考訳(メタデータ) (2024-10-04T10:48:54Z) - MotionFix: Text-Driven 3D Human Motion Editing [52.11745508960547]
主な課題は、トレーニングデータの不足と、ソースの動きを正確に編集するモデルの設計である。
本研究では, (i) 震源運動, (ii) 目標運動, (iii) 編集テキストからなる三つ組のデータセットを半自動で収集する手法を提案する。
このデータにアクセスすると、ソースモーションと編集テキストの両方を入力として取り込む条件拡散モデルTMEDをトレーニングできます。
論文 参考訳(メタデータ) (2024-08-01T16:58:50Z) - Exploring Vision Transformers for 3D Human Motion-Language Models with Motion Patches [12.221087476416056]
動き系列の新しい表現である「動きパッチ」を導入し、移動学習を通して視覚変換器(ViT)をモーションエンコーダとして用いることを提案する。
これらの動きパッチは、運動配列に基づく骨格関節の分割と分類によって作成され、様々な骨格構造に対して堅牢である。
2次元画像データを用いたトレーニングにより得られたViTの事前学習による伝達学習により,動作解析の性能が向上することが判明した。
論文 参考訳(メタデータ) (2024-05-08T02:42:27Z) - Choreographing the Digital Canvas: A Machine Learning Approach to Artistic Performance [9.218587190403174]
本稿では,属性記述に基づく芸術演奏のためのデザインツールについて紹介する。
このプラットフォームは、新しい機械学習(ML)モデルとインタラクティブインターフェースを統合して、芸術的な動きを生成、視覚化する。
論文 参考訳(メタデータ) (2024-03-26T01:42:13Z) - Orientation-Aware Leg Movement Learning for Action-Driven Human Motion
Prediction [7.150292351809277]
行動駆動型人間の動き予測は、観察されたシーケンスに基づいて将来の人間の動きを予測することを目的としている。
複数のアクションラベル間のスムーズで現実的な遷移をモデル化する必要がある。
1つのデータセット上でトレーニングした中間学習モデルを、2つの目に見えない大規模な動きデータセットに一般化し、自然な遷移を生成する。
論文 参考訳(メタデータ) (2023-10-23T13:16:51Z) - MotionTrack: Learning Motion Predictor for Multiple Object Tracking [68.68339102749358]
本研究では,学習可能なモーション予測器を中心に,新しいモーショントラッカーであるMotionTrackを紹介する。
実験結果から、MotionTrackはDancetrackやSportsMOTといったデータセット上での最先端のパフォーマンスを示す。
論文 参考訳(メタデータ) (2023-06-05T04:24:11Z) - Motion-R3: Fast and Accurate Motion Annotation via Representation-based
Representativeness Ranking [12.780640149625743]
与えられたデータセットにおける動きデータ固有の代表性に基づく新しい動きアノテーション手法を提案する。
その高い効率のおかげで、我々の手法は特に頻繁な要求の変化に反応し、モーションアノテーションモデルのアジャイル開発を可能にします。
論文 参考訳(メタデータ) (2023-04-04T09:58:58Z) - Motion Style Transfer: Modular Low-Rank Adaptation for Deep Motion
Forecasting [79.56014465244644]
本稿では,新しい領域への深部動き予測モデルを効率的に適用するための伝達学習手法を提案する。
エンコーダ全体を更新する従来の微調整アプローチとは異なり、主な考え方は調整可能なパラメータの量を減らすことである。
提案するアダプタ設計であるMoSAは,いくつかの予測ベンチマークにおいて,先行手法よりも優れていることを示す。
論文 参考訳(メタデータ) (2022-11-06T16:14:17Z) - Motion Transformer with Global Intention Localization and Local Movement
Refinement [103.75625476231401]
動き TRansformer (MTR) は、大域的意図の局所化と局所的な動きの洗練の合同最適化として、動き予測をモデル化する。
MTRは、限界運動予測と関節運動予測の両方において最先端の性能を達成する。
論文 参考訳(メタデータ) (2022-09-27T16:23:14Z) - MoDi: Unconditional Motion Synthesis from Diverse Data [51.676055380546494]
多様な動きを合成する無条件生成モデルであるMoDiを提案する。
我々のモデルは、多様な、構造化されていない、ラベルなしのモーションデータセットから完全に教師なしの設定で訓練されている。
データセットに構造が欠けているにもかかわらず、潜在空間は意味的にクラスタ化可能であることを示す。
論文 参考訳(メタデータ) (2022-06-16T09:06:25Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。