論文の概要: Level generation for rhythm VR games
- arxiv url: http://arxiv.org/abs/2304.06809v1
- Date: Thu, 13 Apr 2023 20:24:51 GMT
- ステータス: 処理完了
- システム内更新日: 2023-04-17 15:20:45.631497
- Title: Level generation for rhythm VR games
- Title(参考訳): リズムvrゲームのためのレベル生成
- Authors: Mariia Rizhko
- Abstract要約: ラグナロック(Ragnarock)は、バーチャルリアリティーのリズムゲームで、ロングシップレースに出場するバイキングのキャプテンをプレイする。
2つのハンマーで、そのタスクは、迫力のあるバイキング音楽と同期して、入ってくるランを潰すことである。
ビートマップの作成には数時間を要する。
この研究は、振り付け学習のタスクとしても知られるビートマップ作成のプロセスを自動化することを目的としている。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Ragnarock is a virtual reality (VR) rhythm game in which you play a Viking
captain competing in a longship race. With two hammers, the task is to crush
the incoming runes in sync with epic Viking music. The runes are defined by a
beat map which the player can manually create. The creation of beat maps takes
hours. This work aims to automate the process of beat map creation, also known
as the task of learning to choreograph. The assignment is broken down into
three parts: determining the timing of the beats (action placement),
determining where in space the runes connected with the chosen beats should be
placed (action selection) and web-application creation. For the first task of
action placement, extraction of predominant local pulse (PLP) information from
music recordings is used. This approach allows to learn where and how many
beats are supposed to be placed. For the second task of action selection,
Recurrent Neural Networks (RNN) are used, specifically Gated recurrent unit
(GRU) to learn sequences of beats, and their patterns to be able to recreate
those rules and receive completely new levels. Then the last task was to build
a solution for non-technical players, the task was to combine the results of
the first and the second parts into a web application for easy use. For this
task the frontend was built using JavaScript and React and the backend - python
and FastAPI.
- Abstract(参考訳): ラグナロック(Ragnarock)は、仮想現実(VR)のリズムゲームで、ロングシップレースに出場するバイキングのキャプテンをプレイする。
2つのハンマーで、入ってくるランを壊し、エピックヴァイキング音楽と同期させる。
ランはプレイヤーが手動で作成できるビートマップによって定義される。
beatマップの作成には数時間かかる。
この研究は、振り付け学習のタスクとしても知られるビートマップ作成のプロセスを自動化することを目的としている。
割り当ては、ビート(動作配置)のタイミングを決定する、選択したビートに接続されたランがどこに置かれるべきかを決定する(動作選択)、ウェブアプリケーション作成の3つの部分に分けられる。
動作配置の最初のタスクでは、音楽記録から支配的な局所パルス(PLP)情報を抽出する。
このアプローチでは、どことどのビートを置くべきかを学ぶことができる。
アクション選択の第2のタスクでは、リカレントニューラルネットワーク(RNN)、特にGRU(Gated Recurrent Unit)を使用してビート列とパターンを学習し、それらのルールを再現し、完全に新しいレベルを受け取ることができる。
最後のタスクは、非技術プレイヤー向けのソリューションを構築することであり、そのタスクは、第1と第2のパーツの結果をWebアプリケーションに簡単に組み合わせることであった。
このタスクのためにフロントエンドはJavaScriptとReactとバックエンド、pythonとFastAPIを使って構築された。
関連論文リスト
- Beat-Aligned Spectrogram-to-Sequence Generation of Rhythm-Game Charts [18.938897917126408]
グラフ生成をシーケンス生成タスクとして定式化し、大きなデータセットを使用してTransformerをトレーニングする。
また,テンポインフォームド・プレプロセッシングとトレーニング・プロシージャを導入し,その一部はトレーニングを成功させる上で不可欠なものであることを示唆した。
論文 参考訳(メタデータ) (2023-11-22T20:47:52Z) - Video-Mined Task Graphs for Keystep Recognition in Instructional Videos [71.16703750980143]
手続き的活動理解には、より広いタスクの観点から人間の行動を知覚する必要がある。
本稿では,ハウツービデオからタスクグラフを自動的に発見して,人々がキーステップを実行する傾向を確率論的に表現することを提案する。
より信頼性の高いゼロショットキーステップのローカライゼーションとビデオ表現学習の改善。
論文 参考訳(メタデータ) (2023-07-17T18:19:36Z) - GETMusic: Generating Any Music Tracks with a Unified Representation and
Diffusion Framework [58.64512825534638]
シンボリック・ミュージック・ジェネレーションは、ユーザーが音楽を作るのに役立つ音符を作成することを目的としている。
私たちは「GETMusic」と呼ばれるフレームワークを紹介します。「GET'」は「GEnerate Music Tracks」の略です。
GETScoreは、音符をトークンとして表現し、2D構造でトークンを整理する。
提案する表現は,非自己回帰生成モデルと組み合わせて,任意のソース・ターゲットトラックの組み合わせでGETMusicに音楽を生成する。
論文 参考訳(メタデータ) (2023-05-18T09:53:23Z) - TM2D: Bimodality Driven 3D Dance Generation via Music-Text Integration [75.37311932218773]
テキストと音楽の両方を同時に組み込んだ3Dダンス運動を生成するための新しいタスクを提案する。
本手法は,テキストと音楽の両方に調和した現実的かつ一貫性のあるダンスの動きを生成できると同時に,2つの単一モーダルと同等の性能を維持することができる。
論文 参考訳(メタデータ) (2023-04-05T12:58:33Z) - Setting the rhythm scene: deep learning-based drum loop generation from
arbitrary language cues [0.0]
言語キューの「ムード」を具現化した4ピースドラムパターンの2コンパスを生成する新しい手法を提案する。
我々は,このツールを電子音楽とオーディオヴィジュアルサウンドトラック制作のための作曲支援,あるいはライブ演奏のための即興ツールとして想定する。
このモデルのトレーニングサンプルを作成するため,各曲のコンセンサス・ドラムトラックを抽出する新たな手法を考案した。
論文 参考訳(メタデータ) (2022-09-20T21:53:35Z) - Gen\'eLive! Generating Rhythm Actions in Love Live! [1.3912598476882783]
リズムアクションゲーム(英: rhythm action game)は、音楽セッション中にプレイヤーが正しいタイミングでコマンドを発行するよう挑戦される音楽ベースのビデオゲームである。
この作業の前に、同社は手動でチャートを作成したため、コストのかかるビジネス運用が実現した。
本稿は,KLab がグラフ合成に深層生成モデルを適用した方法を示し,グラフ生成プロセスがいかに改善されたかを示す。
論文 参考訳(メタデータ) (2022-02-25T17:03:36Z) - Supervised Chorus Detection for Popular Music Using Convolutional Neural
Network and Multi-task Learning [10.160205869706965]
本稿では,ポピュラー音楽のコーラスセグメントを検出するための新しい教師付きアプローチを提案する。
本稿では,2つの時間的アクティベーション曲線に同時に適合するマルチタスク学習目的の畳み込みニューラルネットワークを提案する。
また,合唱と境界予測を共同で考慮し,バイナリ出力を生成するポストプロセッシング手法を提案する。
論文 参考訳(メタデータ) (2021-03-26T04:32:08Z) - Can GAN originate new electronic dance music genres? -- Generating novel
rhythm patterns using GAN with Genre Ambiguity Loss [0.0]
本稿では,音楽生成,特に電子舞踊音楽のリズムパターンに着目し,深層学習を用いて新しいリズムを生成できるかを論じる。
我々は、GAN(Generative Adversarial Networks)のフレームワークを拡張し、データセット固有の分布から分岐することを奨励する。
提案したGANは、音楽リズムのように聞こえるリズムパターンを生成できるが、トレーニングデータセットのどのジャンルにも属さないことを示す。
論文 参考訳(メタデータ) (2020-11-25T23:22:12Z) - Lets Play Music: Audio-driven Performance Video Generation [58.77609661515749]
オーディオ駆動型パーパフォーマンスビデオ生成(APVG)という新しいタスクを提案する。
APVGは、特定の音楽オーディオクリップでガイドされた特定の楽器を演奏する人のビデオを合成することを目的としている。
論文 参考訳(メタデータ) (2020-11-05T03:13:46Z) - Learning to Play Sequential Games versus Unknown Opponents [93.8672371143881]
学習者が最初にプレーするゲームと、選択した行動に反応する相手との連続的なゲームについて考察する。
対戦相手の対戦相手列と対戦する際,学習者に対して新しいアルゴリズムを提案する。
我々の結果には、相手の反応の正則性に依存するアルゴリズムの後悔の保証が含まれている。
論文 参考訳(メタデータ) (2020-07-10T09:33:05Z) - Dance Revolution: Long-Term Dance Generation with Music via Curriculum
Learning [55.854205371307884]
音楽条件付きダンス生成をシーケンス・ツー・シーケンスの学習問題として定式化する。
本稿では,長動き列生成における自己回帰モデルの誤り蓄積を軽減するための新しいカリキュラム学習戦略を提案する。
提案手法は,自動計測と人的評価において,既存の最先端技術よりも大幅に優れている。
論文 参考訳(メタデータ) (2020-06-11T00:08:25Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。