論文の概要: Dance Dance ConvLSTM
- arxiv url: http://arxiv.org/abs/2507.01644v1
- Date: Wed, 02 Jul 2025 12:17:33 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-07-03 14:23:00.190187
- Title: Dance Dance ConvLSTM
- Title(参考訳): Dance Dance ConvLSTM
- Authors: Miguel O'Malley,
- Abstract要約: textitDance Dance Revolutionは、歌と伴奏によるリズムゲームで、チャートと呼ばれる。
本研究では,ConvLSTMモデルを用いたDDRチャートの自動生成手法であるDance Dance ConvLSTMを紹介する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: \textit{Dance Dance Revolution} is a rhythm game consisting of songs and accompanying choreography, referred to as charts. Players press arrows on a device referred to as a dance pad in time with steps determined by the song's chart. In 2017, the authors of Dance Dance Convolution (DDC) developed an algorithm for the automatic generation of \textit{Dance Dance Revolution} charts, utilizing a CNN-LSTM architecture. We introduce Dance Dance ConvLSTM (DDCL), a new method for the automatic generation of DDR charts using a ConvLSTM based model, which improves upon the DDC methodology and substantially increases the accuracy of chart generation.
- Abstract(参考訳): \textit{Dance Dance Revolution} は、歌と伴奏によるリズムゲームで、チャートと呼ばれる。
プレイヤーはダンスパッドと呼ばれる装置に矢印を押せば、曲のチャートによって決定されるステップに間に合う。
2017年、ダンス・ダンス・コンボリューション(DDC)の著者らは、CNN-LSTMアーキテクチャを利用して、‘textit{Dance Dance Revolution} チャートの自動生成のためのアルゴリズムを開発した。
ConvLSTMモデルを用いたDDRチャートの自動生成手法であるDance Dance ConvLSTM(DDCL)を導入する。
関連論文リスト
- Dance recalibration for dance coherency with recurrent convolution block [0.0]
R-Lodgeは、Recurrent Sequential Representation LearningをDance Recalibrationと名づけた独自の粗いロングダンス生成モデルに組み込んでいる。
The results shows that R-Lodge enhances the consistency of the entire generated dance motions。
論文 参考訳(メタデータ) (2025-02-03T09:29:02Z) - Controllable Dance Generation with Style-Guided Motion Diffusion [49.35282418951445]
ダンスは人間の文化において芸術的な形式や表現として重要な役割を担っているが、ダンスの創造は依然として困難な課題である。
ほとんどのダンス生成法は音楽のみに依存しており、音楽スタイルやジャンルといった本質的な特質を考慮することは滅多にない。
本研究では,ダンス生成の多様なタスクに適した拡散型フレームワークであるDGSDP(Flexible Dance Generation with Style Description Prompts)を紹介する。
論文 参考訳(メタデータ) (2024-06-12T04:55:14Z) - Music to Dance as Language Translation using Sequence Models [1.4255659581428335]
MDLTは、振付生成問題を翻訳タスクとしてフレーム化する新しい手法である。
本稿では,トランスフォーマーアーキテクチャを利用したMDLTと,Mambaアーキテクチャを用いたMDLTの2つのバリエーションを提案する。
我々はAIST++とPhantomDanceのデータセットを使ってロボットアームにダンスを教えるが、本手法は完全なヒューマノイドロボットに適用できる。
論文 参考訳(メタデータ) (2024-03-22T18:47:54Z) - DiffDance: Cascaded Human Motion Diffusion Model for Dance Generation [89.50310360658791]
本稿では,高分解能長周期ダンス生成のための新しい動き拡散モデルDiffDanceを提案する。
本モデルは、音楽間拡散モデルとシーケンス超解像拡散モデルとから構成される。
DiffDanceは、入力された音楽と効果的に一致したリアルなダンスシーケンスを生成することができることを実証する。
論文 参考訳(メタデータ) (2023-08-05T16:18:57Z) - TM2D: Bimodality Driven 3D Dance Generation via Music-Text Integration [75.37311932218773]
テキストと音楽の両方を同時に組み込んだ3Dダンス運動を生成するための新しいタスクを提案する。
本手法は,テキストと音楽の両方に調和した現実的かつ一貫性のあるダンスの動きを生成できると同時に,2つの単一モーダルと同等の性能を維持することができる。
論文 参考訳(メタデータ) (2023-04-05T12:58:33Z) - Bailando: 3D Dance Generation by Actor-Critic GPT with Choreographic
Memory [92.81383016482813]
そこで我々は3Dキャラクターを1曲の楽曲に追従して踊るための新しい音楽間距離フレームワークBailandoを提案する。
本稿では,音楽に忠実な流麗なダンスにユニットを構成するアクタ批判型生成事前学習変換器(GPT)を紹介する。
提案するフレームワークは,定性的かつ定量的に最先端の性能を実現する。
論文 参考訳(メタデータ) (2022-03-24T13:06:43Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。