論文の概要: Computer-Generated Music for Tabletop Role-Playing Games
- arxiv url: http://arxiv.org/abs/2008.07009v1
- Date: Sun, 16 Aug 2020 21:53:49 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-28 09:16:29.160596
- Title: Computer-Generated Music for Tabletop Role-Playing Games
- Title(参考訳): 卓上ロールプレイングゲームのためのコンピュータ生成音楽
- Authors: Lucas N. Ferreira, Levi H. S. Lelis and Jim Whitehead
- Abstract要約: 本稿では,ロールプレイングゲームのためのバックグラウンド音楽を生成するシステムであるBardo Composerを紹介する。
Bardo Composerは音声認識システムを使用して、プレイヤーの音声をテキストに変換する。
本研究では,116人の参加者を対象に,システムによって生成された感情を正しく識別できるかどうかをユーザスタディで検証した。
- 参考スコア(独自算出の注目度): 18.324855371704313
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In this paper we present Bardo Composer, a system to generate background
music for tabletop role-playing games. Bardo Composer uses a speech recognition
system to translate player speech into text, which is classified according to a
model of emotion. Bardo Composer then uses Stochastic Bi-Objective Beam Search,
a variant of Stochastic Beam Search that we introduce in this paper, with a
neural model to generate musical pieces conveying the desired emotion. We
performed a user study with 116 participants to evaluate whether people are
able to correctly identify the emotion conveyed in the pieces generated by the
system. In our study we used pieces generated for Call of the Wild, a Dungeons
and Dragons campaign available on YouTube. Our results show that human subjects
could correctly identify the emotion of the generated music pieces as
accurately as they were able to identify the emotion of pieces written by
humans.
- Abstract(参考訳): 本稿では,テーブルトップロールプレイングゲーム用のバックグラウンド音楽を生成するシステムであるbardo composerを提案する。
bardo composerは音声認識システムを使用してプレイヤーの音声をテキストに変換し、感情のモデルに従って分類する。
そこでbardo composerは,本論文で紹介する確率的ビーム探索の変種である確率的bi-objective beam searchを用いて,所望の感情を伝達する楽曲を生成するニューラルモデルを開発した。
被験者116名を対象にユーザ調査を行い,システムで生成した感情を正しく識別できるかどうかについて検討した。
私たちの研究では、YouTubeで利用可能なDungeons and DragonsキャンペーンであるCall of the Wildのために生成されたピースを使用しました。
以上の結果から,人体が生成した楽曲の感情を,人間によって書かれた楽曲の感情を正確に識別できることが示唆された。
関連論文リスト
- Emotion Manipulation Through Music -- A Deep Learning Interactive Visual Approach [0.0]
我々は,AIツールを用いて歌の感情的内容を操作する新しい方法を提案する。
私たちのゴールは、元のメロディをできるだけそのままにして、望ましい感情を達成することです。
この研究は、オンデマンドのカスタム音楽生成、既存の作品の自動リミックス、感情の進行に合わせて調整された音楽プレイリストに寄与する可能性がある。
論文 参考訳(メタデータ) (2024-06-12T20:12:29Z) - MeLFusion: Synthesizing Music from Image and Language Cues using Diffusion Models [57.47799823804519]
私たちは、ミュージシャンが映画の脚本だけでなく、視覚化を通して音楽を作る方法にインスピレーションを受けています。
本稿では,テキスト記述と対応する画像からの手がかりを効果的に利用して音楽を合成するモデルであるMeLFusionを提案する。
音楽合成パイプラインに視覚情報を加えることで、生成した音楽の質が大幅に向上することを示す。
論文 参考訳(メタデータ) (2024-06-07T06:38:59Z) - Exploring and Applying Audio-Based Sentiment Analysis in Music [0.0]
音楽的感情を解釈する計算モデルの能力は、ほとんど解明されていない。
本研究は,(1)音楽クリップの感情を時間とともに予測し,(2)時系列の次の感情値を決定し,シームレスな遷移を保証することを目的とする。
論文 参考訳(メタデータ) (2024-02-22T22:34:06Z) - Are Words Enough? On the semantic conditioning of affective music
generation [1.534667887016089]
このスコーピングレビューは、感情によって条件付けられた音楽生成の可能性を分析し、議論することを目的としている。
本稿では,ルールベースモデルと機械学習モデルという,自動音楽生成において採用される2つの主要なパラダイムについて概観する。
音楽を通して感情を表現する言葉の限界とあいまいさを克服することは、創造産業に影響を及ぼす可能性があると結論付けている。
論文 参考訳(メタデータ) (2023-11-07T00:19:09Z) - Song Emotion Recognition: a Performance Comparison Between Audio
Features and Artificial Neural Networks [0.0]
この問題に対処するために使用される最も一般的な特徴とモデルについて検討し、カペラの歌で感情を認識するのに適したものを明らかにする。
本稿では,この課題に対処するために,近年の出版物で用いられている最も一般的な特徴とモデルについて検討し,カペラ歌の感情認識に最も適しているものについて述べる。
論文 参考訳(メタデータ) (2022-09-24T16:13:25Z) - Speech Synthesis with Mixed Emotions [77.05097999561298]
異なる感情の音声サンプル間の相対的な差を測定する新しい定式化を提案する。
次に、私たちの定式化を、シーケンスからシーケンスまでの感情的なテキストから音声へのフレームワークに組み込む。
実行時に、感情属性ベクトルを手動で定義し、所望の感情混合を生成するためにモデルを制御する。
論文 参考訳(メタデータ) (2022-08-11T15:45:58Z) - A Dataset for Speech Emotion Recognition in Greek Theatrical Plays [2.685039330775817]
劇場劇の字幕を自動的に生成するために、音声分析を用いることができる。
演劇における音声対話の感情的内容を自動的に予測するために,音声感情認識(SER)を用いることができる。
本稿ではギリシャの演劇における音声感情認識のための新しい公開データ収集であるGreThEを紹介する。
論文 参考訳(メタデータ) (2022-03-27T21:55:59Z) - A Novel Multi-Task Learning Method for Symbolic Music Emotion
Recognition [76.65908232134203]
Symbolic Music Emotion Recognition(SMER)は、MIDIやMusicXMLなどのシンボリックデータから音楽の感情を予測すること。
本稿では、感情認識タスクを他の感情関連補助タスクに組み込む、SMERのためのシンプルなマルチタスクフレームワークを提案する。
論文 参考訳(メタデータ) (2022-01-15T07:45:10Z) - Textless Speech Emotion Conversion using Decomposed and Discrete
Representations [49.55101900501656]
我々は、音声を、コンテンツ単位、F0、話者、感情からなる離散的、非絡み合いの学習表現に分解する。
まず、内容単位を対象の感情に翻訳し、その単位に基づいて韻律的特徴を予測することによって、音声内容を変更する。
最後に、予測された表現をニューラルボコーダに入力して音声波形を生成する。
論文 参考訳(メタデータ) (2021-11-14T18:16:42Z) - Enhancing Cognitive Models of Emotions with Representation Learning [58.2386408470585]
本稿では,きめ細かな感情の埋め込み表現を生成するための,新しいディープラーニングフレームワークを提案する。
本フレームワークは,コンテキスト型埋め込みエンコーダとマルチヘッド探索モデルを統合する。
本モデルは共感対話データセット上で評価され,32種類の感情を分類する最新結果を示す。
論文 参考訳(メタデータ) (2021-04-20T16:55:15Z) - Seen and Unseen emotional style transfer for voice conversion with a new
emotional speech dataset [84.53659233967225]
感情的音声変換は、言語内容と話者のアイデンティティを保ちながら、音声中の感情的韻律を変換することを目的としている。
可変自動符号化ワッサーシュタイン生成対向ネットワーク(VAW-GAN)に基づく新しいフレームワークを提案する。
提案するフレームワークは,ベースラインフレームワークを一貫して上回り,優れた性能を発揮することを示す。
論文 参考訳(メタデータ) (2020-10-28T07:16:18Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。