論文の概要: Robust Dancer: Long-term 3D Dance Synthesis Using Unpaired Data
- arxiv url: http://arxiv.org/abs/2303.16856v1
- Date: Wed, 29 Mar 2023 17:06:08 GMT
- ステータス: 処理完了
- システム内更新日: 2023-03-30 13:55:51.781876
- Title: Robust Dancer: Long-term 3D Dance Synthesis Using Unpaired Data
- Title(参考訳): ロバストダンサー:非ペアデータを用いた長期3dダンス合成
- Authors: Bin Feng, Tenglong Ao, Zequn Liu, Wei Ju, Libin Liu, Ming Zhang
- Abstract要約: 本稿では,学習に不自由なデータしか必要とせず,同時に現実的な長期動作を生成できる新しい3Dダンス合成システムを提案する。
この結果は,ペアのトレーニングデータを必要としないにも関わらず,強いベースライン法に匹敵するものであり,長期の楽曲を推定する際にも頑健である。
- 参考スコア(独自算出の注目度): 6.728737998251558
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: How to automatically synthesize natural-looking dance movements based on a
piece of music is an incrementally popular yet challenging task. Most existing
data-driven approaches require hard-to-get paired training data and fail to
generate long sequences of motion due to error accumulation of autoregressive
structure. We present a novel 3D dance synthesis system that only needs
unpaired data for training and could generate realistic long-term motions at
the same time. For the unpaired data training, we explore the disentanglement
of beat and style, and propose a Transformer-based model free of reliance upon
paired data. For the synthesis of long-term motions, we devise a new
long-history attention strategy. It first queries the long-history embedding
through an attention computation and then explicitly fuses this embedding into
the generation pipeline via multimodal adaptation gate (MAG). Objective and
subjective evaluations show that our results are comparable to strong baseline
methods, despite not requiring paired training data, and are robust when
inferring long-term music. To our best knowledge, we are the first to achieve
unpaired data training - an ability that enables to alleviate data limitations
effectively. Our code is released on https://github.com/BFeng14/RobustDancer
- Abstract(参考訳): 自然に見えたダンスの動きを音楽に基づいて自動で合成する方法は、徐々に人気を集めつつも挑戦的な課題だ。
既存のデータ駆動型アプローチでは、ペア化の難しいトレーニングデータが必要であり、自動回帰構造のエラー蓄積による長い動き列の生成に失敗する。
本稿では,学習に不自由なデータしか必要とせず,同時に現実的な長期動作を生成できる新しい3Dダンス合成システムを提案する。
非ペアデータトレーニングでは,ビートとスタイルの不整合を調査し,ペアデータに依存しないトランスフォーマモデルを提案する。
長期的運動の合成のために,我々は新しい長期的注意戦略を考案する。
まず、注意力計算を通じて長い歴史の埋め込みをクエリし、それからマルチモーダル適応ゲート(mag)を介して生成パイプラインに明示的に組み込む。
対象的および主観的評価は,2つの学習データを必要としないにもかかわらず,我々の結果が強いベースライン法に匹敵することを示す。
最善の知識として、私たちは、非ペアデータトレーニングを初めて達成しました - データの制限を効果的に緩和する能力です。
私たちのコードはhttps://github.com/BFeng14/RobustDancerでリリースされています。
関連論文リスト
- RoHM: Robust Human Motion Reconstruction via Diffusion [58.63706638272891]
RoHMは、モノクロRGB(-D)ビデオから頑健な3次元人間の動きを復元するためのアプローチである。
ノイズと閉鎖された入力データに条件付けし、一貫した大域座標で完全な可塑性運動を再構成した。
本手法は,テスト時に高速でありながら,定性的かつ定量的に最先端の手法より優れる。
論文 参考訳(メタデータ) (2024-01-16T18:57:50Z) - Freshness or Accuracy, Why Not Both? Addressing Delayed Feedback via
Dynamic Graph Neural Networks [23.952923773407043]
遅延フィードバック問題は、変換率を予測する上で最も困難な課題の1つである。
動的グラフニューラルネットワーク(DGDFEM)による遅延フィードバックモデリングを提案する。
データパイプラインの作成、動的グラフの構築、CVR予測モデルのトレーニングという3つのステージが含まれている。
論文 参考訳(メタデータ) (2023-08-15T23:49:07Z) - A New Benchmark: On the Utility of Synthetic Data with Blender for Bare
Supervised Learning and Downstream Domain Adaptation [42.2398858786125]
コンピュータビジョンにおけるディープラーニングは、大規模ラベル付きトレーニングデータの価格で大きな成功を収めた。
制御不能なデータ収集プロセスは、望ましくない重複が存在する可能性のある非IIDトレーニングおよびテストデータを生成する。
これを回避するために、ドメインランダム化による3Dレンダリングによる合成データを生成する方法がある。
論文 参考訳(メタデータ) (2023-03-16T09:03:52Z) - Generating music with sentiment using Transformer-GANs [0.0]
本研究では,人間の感情から得られるデータによって条件付けられた記号音楽の生成モデルを提案する。
我々は,効率の良い線形バージョンの注意と識別器を用いることで,上記の問題に対処しようと試みている。
論文 参考訳(メタデータ) (2022-12-21T15:59:35Z) - Time-Varying Propensity Score to Bridge the Gap between the Past and Present [104.46387765330142]
本稿では,データ分布の段階的変化を検出するための時間変化確率スコアを提案する。
実装のさまざまな方法を示し、さまざまな問題について評価する。
論文 参考訳(メタデータ) (2022-10-04T07:21:49Z) - DynImp: Dynamic Imputation for Wearable Sensing Data Through Sensory and
Temporal Relatedness [78.98998551326812]
従来の手法では、データの時系列ダイナミクスと、異なるセンサーの特徴の関連性の両方をめったに利用していない、と我々は主張する。
我々はDynImpと呼ばれるモデルを提案し、特徴軸に沿って近接する隣人と異なる時間点の欠如を扱う。
本手法は, 関連センサのマルチモーダル性特性を活かし, 履歴時系列のダイナミックスから学習し, 極端に欠落した状態でデータを再構築することができることを示す。
論文 参考訳(メタデータ) (2022-09-26T21:59:14Z) - BRACE: The Breakdancing Competition Dataset for Dance Motion Synthesis [123.73677487809418]
ダンス・モーション・シンセサイザーにおける一般的な仮定に挑戦する新しいデータセットを提案する。
我々は、アクロバティックな動きと絡み合った姿勢を特徴とするブレイクダンスに焦点を当てている。
BRACEデータセットは、3時間30分以上の濃密な注釈付きポーズを含む。
論文 参考訳(メタデータ) (2022-07-20T18:03:54Z) - Pretraining Representations for Data-Efficient Reinforcement Learning [12.43475487724972]
ラベルのないデータを使ってエンコーダを事前訓練し、少数のタスク固有のデータに基づいて微調整する。
Atariゲーム上でのインタラクションが100万段階に制限された場合、我々のアプローチは以前の作業を大幅に上回っている。
提案手法では,大規模モデルと組み合わせることで,より多様なタスク整合観測データが得られる。
論文 参考訳(メタデータ) (2021-06-09T04:14:27Z) - Dance Revolution: Long-Term Dance Generation with Music via Curriculum
Learning [55.854205371307884]
音楽条件付きダンス生成をシーケンス・ツー・シーケンスの学習問題として定式化する。
本稿では,長動き列生成における自己回帰モデルの誤り蓄積を軽減するための新しいカリキュラム学習戦略を提案する。
提案手法は,自動計測と人的評価において,既存の最先端技術よりも大幅に優れている。
論文 参考訳(メタデータ) (2020-06-11T00:08:25Z) - Convolutional Tensor-Train LSTM for Spatio-temporal Learning [116.24172387469994]
本稿では,ビデオシーケンスの長期相関を効率的に学習できる高次LSTMモデルを提案する。
これは、時間をかけて畳み込み特徴を組み合わせることによって予測を行う、新しいテンソルトレインモジュールによって達成される。
この結果は,幅広いアプリケーションやデータセットにおいて,最先端のパフォーマンス向上を実現している。
論文 参考訳(メタデータ) (2020-02-21T05:00:01Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。