論文の概要: Fighting Game Adaptive Background Music for Improved Gameplay
- arxiv url: http://arxiv.org/abs/2403.02701v1
- Date: Tue, 5 Mar 2024 06:46:43 GMT
- ステータス: 処理完了
- システム内更新日: 2024-03-06 15:46:51.680202
- Title: Fighting Game Adaptive Background Music for Improved Gameplay
- Title(参考訳): ゲームプレイ改善のための対戦ゲーム適応型バックグラウンド音楽
- Authors: Ibrahim Khan, Thai Van Nguyen, Chollakorn Nimpattanavong, Ruck
Thawonmas
- Abstract要約: 本稿では,DareFightingICEにおける背景音楽(BGM)の適応的機能の追加による改善について述べる。
適応型BGMは、2022年のDareFightingICEコンペティションの勝者サウンドデザインのBGMを演奏する3つの異なるカテゴリーの楽器で構成されている。
音声のみを入力として使用する深層強化学習AIエージェントを用いて適応的BGMを評価する実験を行った。
- 参考スコア(独自算出の注目度): 0.13654846342364302
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: This paper presents our work to enhance the background music (BGM) in
DareFightingICE by adding adaptive features. The adaptive BGM consists of three
different categories of instruments playing the BGM of the winner sound design
from the 2022 DareFightingICE Competition. The BGM adapts by changing the
volume of each category of instruments. Each category is connected to a
different element of the game. We then run experiments to evaluate the adaptive
BGM by using a deep reinforcement learning AI agent that only uses audio as
input (Blind DL AI). The results show that the performance of the Blind DL AI
improves while playing with the adaptive BGM as compared to playing without the
adaptive BGM.
- Abstract(参考訳): 本稿では,DareFightingICEにおける背景音楽(BGM)の適応的機能の追加による改善について述べる。
適応型BGMは、2022年のDareFightingICEコンペティションの勝者サウンドデザインのBGMを演奏する3つの異なるカテゴリーの楽器で構成されている。
BGMは、各楽器の音量を変更することで適応する。
各カテゴリーはゲームの異なる要素に接続されている。
次に、音声のみを入力として使用する深層強化学習AIエージェント(Blind DL AI)を用いて、適応的BGMを評価する実験を行う。
その結果,適応的BGMを使わずにプレイするよりも,適応的BGMを併用したBlind DL AIの性能が向上した。
関連論文リスト
- MuVi: Video-to-Music Generation with Semantic Alignment and Rhythmic Synchronization [52.498942604622165]
本稿では,ビデオコンテンツに合わせた音楽を生成するためのフレームワークであるMuViについて述べる。
MuViは、特別に設計された視覚適応器を通じて映像コンテンツを分析し、文脈的および時間的に関係のある特徴を抽出する。
音声品質と時間同期の両方において, MuVi が優れた性能を示すことを示す。
論文 参考訳(メタデータ) (2024-10-16T18:44:56Z) - MetaBGM: Dynamic Soundtrack Transformation For Continuous Multi-Scene Experiences With Ambient Awareness And Personalization [13.244986817573082]
本稿では,動的シーンやリアルタイムユーザインタラクションに適応するバックグラウンド音楽を生成するフレームワークであるMetaBGMを紹介する。
実験により,MetaBGMは対話型アプリケーションにおいて,コンテキストに関連のある動的バックグラウンド音楽を効果的に生成することを示した。
論文 参考訳(メタデータ) (2024-09-05T18:12:11Z) - Action2Sound: Ambient-Aware Generation of Action Sounds from Egocentric Videos [87.32349247938136]
既存のアプローチでは、トレーニング中にビデオとオーディオの完全な対応を暗黙的に仮定する。
環境に配慮した新しいオーディオ生成モデルAV-LDMを提案する。
我々のアプローチは、観察された視覚コンテンツに忠実にビデオ・オーディオ生成を集中させる最初の方法である。
論文 参考訳(メタデータ) (2024-06-13T16:10:19Z) - Diff-BGM: A Diffusion Model for Video Background Music Generation [16.94631443719866]
ビデオと音楽に関するマルチモーダル情報を提供するために,詳細なアノテーションとショット検出を備えた高品質な音楽ビデオデータセットを提案する。
次に,音楽の多様性や音楽と映像のアライメントなど,音楽の質を評価するための評価指標を提案する。
Diff-BGMフレームワークは、ビデオの背景音楽を自動的に生成し、生成過程において異なる信号を用いて音楽の異なる側面を制御する。
論文 参考訳(メタデータ) (2024-05-20T09:48:36Z) - Arrange, Inpaint, and Refine: Steerable Long-term Music Audio Generation and Editing via Content-based Controls [6.176747724853209]
LLM(Large Language Models)は、高品質な音楽を生成する上で有望であるが、自動回帰生成に焦点をあてることで、音楽編集タスクにおける有用性を制限している。
本稿では,パラメータ効率の高いヘテロジニアスアダプタとマスキングトレーニングスキームを組み合わせた新しいアプローチを提案する。
提案手法は, フレームレベルのコンテンツベース制御を統合し, トラックコンディショニングとスコアコンディショニングによる音楽アレンジメントを容易にする。
論文 参考訳(メタデータ) (2024-02-14T19:00:01Z) - MusicRL: Aligning Music Generation to Human Preferences [62.44903326718772]
MusicRLは人間のフィードバックによって微調整された最初の音楽生成システムである。
ユーザに対してMusicLMをデプロイし,30,000対の選好からなる実質的なデータセットを収集する。
人間のフィードバックを大規模に組み込んだ最初のテキスト-音楽モデルであるMusicRL-Uを訓練する。
論文 参考訳(メタデータ) (2024-02-06T18:36:52Z) - Align, Adapt and Inject: Sound-guided Unified Image Generation [50.34667929051005]
本稿では,音声誘導画像生成,編集,スタイリングのための統合フレームワーク「アライン,アダプティブ,インジェクション(AAI)」を提案する。
本手法は,既存のテキスト・ツー・イメージ(T2I)モデルを用いて,入力音を通常の単語のように音声トークンに適応させる。
提案するAAIは、他のテキストや音声誘導方式よりも優れています。
論文 参考訳(メタデータ) (2023-06-20T12:50:49Z) - GETMusic: Generating Any Music Tracks with a Unified Representation and
Diffusion Framework [58.64512825534638]
シンボリック・ミュージック・ジェネレーションは、ユーザーが音楽を作るのに役立つ音符を作成することを目的としている。
私たちは「GETMusic」と呼ばれるフレームワークを紹介します。「GET'」は「GEnerate Music Tracks」の略です。
GETScoreは、音符をトークンとして表現し、2D構造でトークンを整理する。
提案する表現は,非自己回帰生成モデルと組み合わせて,任意のソース・ターゲットトラックの組み合わせでGETMusicに音楽を生成する。
論文 参考訳(メタデータ) (2023-05-18T09:53:23Z) - Adaptive Background Music for a Fighting Game: A Multi-Instrument Volume
Modulation Approach [0.13654846342364302]
本稿では,適応的なBGMを追加することで,DareICEのバックグラウンド音楽(BGM)を強化する取り組みについて述べる。
適応的なBGMは、"Air on G-String"と呼ばれるクラシック曲を演奏する5つの異なる楽器で構成されている。
次に、音声のみを入力として使用する深層強化学習AIを用いて、適応的BGMを評価する実験を行う。
論文 参考訳(メタデータ) (2023-03-28T05:08:55Z) - An adaptive music generation architecture for games based on the deep
learning Transformer mode [0.0]
本稿では,Transformerディープラーニングモデルに基づくゲーム用音楽生成アーキテクチャを提案する。
音楽は、覚醒価モデルに従って、プレイヤーの心理的文脈に適応する。
我々のモチベーションは、プレイヤーの好みに応じて音楽をカスタマイズすることであり、演奏者の好みのスタイルを選択することができる。
論文 参考訳(メタデータ) (2022-07-04T19:53:43Z) - ADD 2022: the First Audio Deep Synthesis Detection Challenge [92.41777858637556]
最初のオーディオディープ合成検出チャレンジ(ADD)は、ギャップを埋めるために動機付けられた。
ADD 2022には、低品質の偽オーディオ検出(LF)、部分的に偽オーディオ検出(PF)、オーディオ偽ゲーム(FG)の3つのトラックが含まれている。
論文 参考訳(メタデータ) (2022-02-17T03:29:20Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。