論文の概要: Fighting Game Adaptive Background Music for Improved Gameplay
- arxiv url: http://arxiv.org/abs/2403.02701v1
- Date: Tue, 5 Mar 2024 06:46:43 GMT
- ステータス: 処理完了
- システム内更新日: 2024-03-06 15:46:51.680202
- Title: Fighting Game Adaptive Background Music for Improved Gameplay
- Title(参考訳): ゲームプレイ改善のための対戦ゲーム適応型バックグラウンド音楽
- Authors: Ibrahim Khan, Thai Van Nguyen, Chollakorn Nimpattanavong, Ruck
Thawonmas
- Abstract要約: 本稿では,DareFightingICEにおける背景音楽(BGM)の適応的機能の追加による改善について述べる。
適応型BGMは、2022年のDareFightingICEコンペティションの勝者サウンドデザインのBGMを演奏する3つの異なるカテゴリーの楽器で構成されている。
音声のみを入力として使用する深層強化学習AIエージェントを用いて適応的BGMを評価する実験を行った。
- 参考スコア(独自算出の注目度): 0.13654846342364302
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: This paper presents our work to enhance the background music (BGM) in
DareFightingICE by adding adaptive features. The adaptive BGM consists of three
different categories of instruments playing the BGM of the winner sound design
from the 2022 DareFightingICE Competition. The BGM adapts by changing the
volume of each category of instruments. Each category is connected to a
different element of the game. We then run experiments to evaluate the adaptive
BGM by using a deep reinforcement learning AI agent that only uses audio as
input (Blind DL AI). The results show that the performance of the Blind DL AI
improves while playing with the adaptive BGM as compared to playing without the
adaptive BGM.
- Abstract(参考訳): 本稿では,DareFightingICEにおける背景音楽(BGM)の適応的機能の追加による改善について述べる。
適応型BGMは、2022年のDareFightingICEコンペティションの勝者サウンドデザインのBGMを演奏する3つの異なるカテゴリーの楽器で構成されている。
BGMは、各楽器の音量を変更することで適応する。
各カテゴリーはゲームの異なる要素に接続されている。
次に、音声のみを入力として使用する深層強化学習AIエージェント(Blind DL AI)を用いて、適応的BGMを評価する実験を行う。
その結果,適応的BGMを使わずにプレイするよりも,適応的BGMを併用したBlind DL AIの性能が向上した。
関連論文リスト
- AudioScenic: Audio-Driven Video Scene Editing [55.098754835213995]
本稿では,映像シーン編集のためのオーディオ駆動フレームワークであるAudioScenicを紹介する。
AudioScenicは、時間対応の音声セマンティックインジェクションプロセスを通じて、音声セマンティクスを視覚シーンに統合する。
音の大きさの変化に応じてシーンの時間的ダイナミクスを調節するオーディオ・マグニチュード・モジュレータ・モジュールを提案する。
第2に、オーディオ周波数フーザーモジュールは、映像シーンのダイナミックスとオーディオの周波数を一致させることにより、時間的一貫性を確保するように設計されている。
論文 参考訳(メタデータ) (2024-04-25T12:55:58Z) - MusicRL: Aligning Music Generation to Human Preferences [62.44903326718772]
MusicRLは人間のフィードバックによって微調整された最初の音楽生成システムである。
ユーザに対してMusicLMをデプロイし,30,000対の選好からなる実質的なデータセットを収集する。
人間のフィードバックを大規模に組み込んだ最初のテキスト-音楽モデルであるMusicRL-Uを訓練する。
論文 参考訳(メタデータ) (2024-02-06T18:36:52Z) - Music Auto-Tagging with Robust Music Representation Learned via Domain
Adversarial Training [18.71152526968065]
音楽情報検索(MIR)の既存のモデルは、マルチメディアコンテンツにおける環境や音声などの現実的なノイズに苦しむ。
本研究では,音声関連タスクにインスパイアされた,ノイズの多い環境下での音楽の自動タグ付け性能を向上させる手法を提案する。
論文 参考訳(メタデータ) (2024-01-27T06:56:51Z) - DITTO: Diffusion Inference-Time T-Optimization for Music Generation [54.51336524107044]
Diffusion Inference-Time T-Optimization (DITTO) は、事前訓練されたテキストから音楽への拡散モデルを推論時に制御するためのフレームワークである。
我々は、インペイント、アウトペイント、ループ化、強度、メロディ、音楽構造制御など、驚くほど幅広い音楽生成応用を実証する。
論文 参考訳(メタデータ) (2024-01-22T18:10:10Z) - Align, Adapt and Inject: Sound-guided Unified Image Generation [50.34667929051005]
本稿では,音声誘導画像生成,編集,スタイリングのための統合フレームワーク「アライン,アダプティブ,インジェクション(AAI)」を提案する。
本手法は,既存のテキスト・ツー・イメージ(T2I)モデルを用いて,入力音を通常の単語のように音声トークンに適応させる。
提案するAAIは、他のテキストや音声誘導方式よりも優れています。
論文 参考訳(メタデータ) (2023-06-20T12:50:49Z) - GETMusic: Generating Any Music Tracks with a Unified Representation and
Diffusion Framework [58.64512825534638]
シンボリック・ミュージック・ジェネレーションは、ユーザーが音楽を作るのに役立つ音符を作成することを目的としている。
私たちは「GETMusic」と呼ばれるフレームワークを紹介します。「GET'」は「GEnerate Music Tracks」の略です。
GETScoreは、音符をトークンとして表現し、2D構造でトークンを整理する。
提案する表現は,非自己回帰生成モデルと組み合わせて,任意のソース・ターゲットトラックの組み合わせでGETMusicに音楽を生成する。
論文 参考訳(メタデータ) (2023-05-18T09:53:23Z) - Mastering Asymmetrical Multiplayer Game with Multi-Agent
Asymmetric-Evolution Reinforcement Learning [8.628547849796615]
非対称マルチプレイヤーゲーム (AMP game) は、ゲーム内で複数の種類のエージェントが競合したり協力したりする人気ゲームジャンルである。
非対称な環境下での非バランス性のため、AMPゲームでトップの人間プレイヤーを倒すことのできる強力なエージェントを、典型的なセルフプレイトレーニング手法で訓練することは困難である。
AMPゲームにおいて,複数種類のエージェントを同時に学習できる新しいマルチエージェント強化学習フレームワークである非対称進化学習(AET)を提案する。
論文 参考訳(メタデータ) (2023-04-20T07:14:32Z) - Adaptive Background Music for a Fighting Game: A Multi-Instrument Volume
Modulation Approach [0.13654846342364302]
本稿では,適応的なBGMを追加することで,DareICEのバックグラウンド音楽(BGM)を強化する取り組みについて述べる。
適応的なBGMは、"Air on G-String"と呼ばれるクラシック曲を演奏する5つの異なる楽器で構成されている。
次に、音声のみを入力として使用する深層強化学習AIを用いて、適応的BGMを評価する実験を行う。
論文 参考訳(メタデータ) (2023-03-28T05:08:55Z) - SingSong: Generating musical accompaniments from singing [35.819589427197464]
入力ボーカルに付随する楽器音楽を生成するシステムであるSingSongについて述べる。
同じ音声入力と比較して、リスナーはSingSongが生成したインストゥルメンタルに対して重要な嗜好を表現した。
論文 参考訳(メタデータ) (2023-01-30T04:53:23Z) - An adaptive music generation architecture for games based on the deep
learning Transformer mode [0.0]
本稿では,Transformerディープラーニングモデルに基づくゲーム用音楽生成アーキテクチャを提案する。
音楽は、覚醒価モデルに従って、プレイヤーの心理的文脈に適応する。
我々のモチベーションは、プレイヤーの好みに応じて音楽をカスタマイズすることであり、演奏者の好みのスタイルを選択することができる。
論文 参考訳(メタデータ) (2022-07-04T19:53:43Z) - ADD 2022: the First Audio Deep Synthesis Detection Challenge [109.59598164826859]
最初のオーディオディープ合成検出チャレンジ(ADD)は、ギャップを埋めるために動機付けられた。
ADD 2022には、低品質の偽オーディオ検出(LF)、部分的に偽オーディオ検出(PF)、オーディオ偽ゲーム(FG)の3つのトラックが含まれている。
論文 参考訳(メタデータ) (2022-02-17T03:29:20Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。