論文の概要: Adaptive Background Music for a Fighting Game: A Multi-Instrument Volume
Modulation Approach
- arxiv url: http://arxiv.org/abs/2303.15734v2
- Date: Wed, 24 May 2023 00:40:27 GMT
- ステータス: 処理完了
- システム内更新日: 2023-05-26 01:44:22.912702
- Title: Adaptive Background Music for a Fighting Game: A Multi-Instrument Volume
Modulation Approach
- Title(参考訳): 対戦ゲームのための適応的バックグラウンド音楽:多楽器ボリューム変調アプローチ
- Authors: Ibrahim Khan, Thai Van Nguyen, Chollakorn Nimpattanavong, Ruck
Thawonmas
- Abstract要約: 本稿では,適応的なBGMを追加することで,DareICEのバックグラウンド音楽(BGM)を強化する取り組みについて述べる。
適応的なBGMは、"Air on G-String"と呼ばれるクラシック曲を演奏する5つの異なる楽器で構成されている。
次に、音声のみを入力として使用する深層強化学習AIを用いて、適応的BGMを評価する実験を行う。
- 参考スコア(独自算出の注目度): 0.8984888893275712
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: This paper presents our work to enhance the background music (BGM) in
DareFightingICE by adding an adaptive BGM. The adaptive BGM consists of five
different instruments playing a classical music piece called "Air on G-String."
The BGM adapts by changing the volume of the instruments. Each instrument is
connected to a different element of the game. We then run experiments to
evaluate the adaptive BGM by using a deep reinforcement learning AI that only
uses audio as input (Blind DL AI). The results show that the performance of the
Blind DL AI improves while playing with the adaptive BGM as compared to playing
without the adaptive BGM.
- Abstract(参考訳): 本稿では,適応的なBGMを追加することで,DareFightingICEのバックグラウンド音楽(BGM)を強化する取り組みについて述べる。
適応的なBGMは、"Air on G-String"と呼ばれるクラシック曲を演奏する5つの異なる楽器で構成されている。
bgmは、楽器のボリュームを変化させて適応する。
各楽器はゲームの異なる要素に接続されている。
次に、音声のみを入力として使用する深層強化学習AI(Blind DL AI)を用いて、適応的BGMを評価する実験を行う。
その結果,適応的BGMを使わずにプレイするよりも,適応的BGMを併用したBlind DL AIの性能が向上した。
関連論文リスト
- AudioScenic: Audio-Driven Video Scene Editing [55.098754835213995]
本稿では,映像シーン編集のためのオーディオ駆動フレームワークであるAudioScenicを紹介する。
AudioScenicは、時間対応の音声セマンティックインジェクションプロセスを通じて、音声セマンティクスを視覚シーンに統合する。
音の大きさの変化に応じてシーンの時間的ダイナミクスを調節するオーディオ・マグニチュード・モジュレータ・モジュールを提案する。
第2に、オーディオ周波数フーザーモジュールは、映像シーンのダイナミックスとオーディオの周波数を一致させることにより、時間的一貫性を確保するように設計されている。
論文 参考訳(メタデータ) (2024-04-25T12:55:58Z) - Fighting Game Adaptive Background Music for Improved Gameplay [0.13654846342364302]
本稿では,DareFightingICEにおける背景音楽(BGM)の適応的機能の追加による改善について述べる。
適応型BGMは、2022年のDareFightingICEコンペティションの勝者サウンドデザインのBGMを演奏する3つの異なるカテゴリーの楽器で構成されている。
音声のみを入力として使用する深層強化学習AIエージェントを用いて適応的BGMを評価する実験を行った。
論文 参考訳(メタデータ) (2024-03-05T06:46:43Z) - Arrange, Inpaint, and Refine: Steerable Long-term Music Audio Generation
and Editing via Content-based Controls [6.747653154871061]
コントロール可能な音楽生成は、人間-AI音楽の共同創造において重要な役割を担っている。
LLM(Large Language Models)は高品質な音楽を生成できることを示しており、自動回帰生成に重点を置いているため、音楽編集タスクにおける有用性を制限している。
そこで本稿では,自動回帰言語モデルによる楽曲の塗り替え作業へのシームレス対応を実現するための,新しい条件付きファインチューニング(PEFT)手法を提案する。
論文 参考訳(メタデータ) (2024-02-14T19:00:01Z) - MusicRL: Aligning Music Generation to Human Preferences [62.44903326718772]
MusicRLは人間のフィードバックによって微調整された最初の音楽生成システムである。
ユーザに対してMusicLMをデプロイし,30,000対の選好からなる実質的なデータセットを収集する。
人間のフィードバックを大規模に組み込んだ最初のテキスト-音楽モデルであるMusicRL-Uを訓練する。
論文 参考訳(メタデータ) (2024-02-06T18:36:52Z) - DITTO: Diffusion Inference-Time T-Optimization for Music Generation [54.51336524107044]
Diffusion Inference-Time T-Optimization (DITTO) は、事前訓練されたテキストから音楽への拡散モデルを推論時に制御するためのフレームワークである。
我々は、インペイント、アウトペイント、ループ化、強度、メロディ、音楽構造制御など、驚くほど幅広い音楽生成応用を実証する。
論文 参考訳(メタデータ) (2024-01-22T18:10:10Z) - InstructME: An Instruction Guided Music Edit And Remix Framework with
Latent Diffusion Models [42.2977676825086]
本稿では,遅延拡散モデルに基づくインストラクションガイド付き音楽編集・リミックスフレームワークであるInstructMEを開発する。
本フレームワークは,編集前後の一貫性を維持するため,U-Netをマルチスケールアグリゲーションで強化する。
提案手法は, 音質, テキスト関連性, 調和性において, 先行するシステムを大幅に上回っている。
論文 参考訳(メタデータ) (2023-08-28T07:11:42Z) - Align, Adapt and Inject: Sound-guided Unified Image Generation [50.34667929051005]
本稿では,音声誘導画像生成,編集,スタイリングのための統合フレームワーク「アライン,アダプティブ,インジェクション(AAI)」を提案する。
本手法は,既存のテキスト・ツー・イメージ(T2I)モデルを用いて,入力音を通常の単語のように音声トークンに適応させる。
提案するAAIは、他のテキストや音声誘導方式よりも優れています。
論文 参考訳(メタデータ) (2023-06-20T12:50:49Z) - GETMusic: Generating Any Music Tracks with a Unified Representation and
Diffusion Framework [58.64512825534638]
シンボリック・ミュージック・ジェネレーションは、ユーザーが音楽を作るのに役立つ音符を作成することを目的としている。
私たちは「GETMusic」と呼ばれるフレームワークを紹介します。「GET'」は「GEnerate Music Tracks」の略です。
GETScoreは、音符をトークンとして表現し、2D構造でトークンを整理する。
提案する表現は,非自己回帰生成モデルと組み合わせて,任意のソース・ターゲットトラックの組み合わせでGETMusicに音楽を生成する。
論文 参考訳(メタデータ) (2023-05-18T09:53:23Z) - An adaptive music generation architecture for games based on the deep
learning Transformer mode [0.0]
本稿では,Transformerディープラーニングモデルに基づくゲーム用音楽生成アーキテクチャを提案する。
音楽は、覚醒価モデルに従って、プレイヤーの心理的文脈に適応する。
我々のモチベーションは、プレイヤーの好みに応じて音楽をカスタマイズすることであり、演奏者の好みのスタイルを選択することができる。
論文 参考訳(メタデータ) (2022-07-04T19:53:43Z) - MusIAC: An extensible generative framework for Music Infilling
Applications with multi-level Control [11.811562596386253]
埋め込み(いんふ)とは、周囲のマルチトラック音楽に与えられた音楽セクションを生成する作業のこと。
提案するフレームワークは、バーごとのトーン張力やポリフォニーレベルの追跡といった制御トークンの追加として、新しい制御トークンである。
インタラクティブな生成を可能にするために,Google Colabノートブックにモデルを提示する。
論文 参考訳(メタデータ) (2022-02-11T10:02:21Z) - Lets Play Music: Audio-driven Performance Video Generation [58.77609661515749]
オーディオ駆動型パーパフォーマンスビデオ生成(APVG)という新しいタスクを提案する。
APVGは、特定の音楽オーディオクリップでガイドされた特定の楽器を演奏する人のビデオを合成することを目的としている。
論文 参考訳(メタデータ) (2020-11-05T03:13:46Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。