論文の概要: YM2413-MDB: A Multi-Instrumental FM Video Game Music Dataset with
Emotion Annotations
- arxiv url: http://arxiv.org/abs/2211.07131v1
- Date: Mon, 14 Nov 2022 06:18:25 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-15 21:31:57.927075
- Title: YM2413-MDB: A Multi-Instrumental FM Video Game Music Dataset with
Emotion Annotations
- Title(参考訳): YM2413-MDB:感情アノテーション付きマルチ機器FMゲーム音楽データセット
- Authors: Eunjin Choi, Yoonjin Chung, Seolhee Lee, JongIk Jeon, Taegyun Kwon,
Juhan Nam
- Abstract要約: YM2413-MDB(YM2413-MDB)は、マルチラベルの感情アノテーションを備えた80年代のFMゲーム音楽データセットである。
FMベースのプログラム可能なサウンドジェネレータであるYM2413を使用して、80年代のSegaとMSX PCの669のオーディオファイルとMIDIファイルを含む。
- 参考スコア(独自算出の注目度): 4.31919268852329
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Existing multi-instrumental datasets tend to be biased toward pop and
classical music. In addition, they generally lack high-level annotations such
as emotion tags. In this paper, we propose YM2413-MDB, an 80s FM video game
music dataset with multi-label emotion annotations. It includes 669 audio and
MIDI files of music from Sega and MSX PC games in the 80s using YM2413, a
programmable sound generator based on FM. The collected game music is arranged
with a subset of 15 monophonic instruments and one drum instrument. They were
converted from binary commands of the YM2413 sound chip. Each song was labeled
with 19 emotion tags by two annotators and validated by three verifiers to
obtain refined tags. We provide the baseline models and results for emotion
recognition and emotion-conditioned symbolic music generation using YM2413-MDB.
- Abstract(参考訳): 既存のマルチインストゥルメンタルデータセットは、ポップ音楽やクラシック音楽に偏りがちである。
さらに、一般的には感情タグのようなハイレベルなアノテーションが欠けている。
本稿では,マルチラベル感情アノテーションを用いた80年代のFMゲーム音楽データセットYM2413-MDBを提案する。
FMベースのプログラム可能なサウンドジェネレータであるYM2413を使用して、80年代のSegaとMSX PCの669のオーディオファイルとMIDIファイルを含む。
収集されたゲーム音楽は、15の単音楽器と1つのドラム楽器のサブセットで配置される。
それらはYM2413サウンドチップのバイナリコマンドから変換された。
それぞれの歌は19個の感情タグを2つのアノテーターによってラベル付けされ、3つの検証者によって検証され、洗練されたタグが得られた。
感情認識とYM2413-MDBを用いた感情条件付きシンボリック音楽生成のためのベースラインモデルと結果を提供する。
関連論文リスト
- Rethinking Emotion Bias in Music via Frechet Audio Distance [11.89773040110695]
我々は、音楽感情認識(MER)と感情音楽生成(EMG)の研究を行う。
本稿では,Frechet Audio Distance(FAD)と並行して,多様なオーディオエンコーダを用いる。
論文 参考訳(メタデータ) (2024-09-23T20:59:15Z) - The NES Video-Music Database: A Dataset of Symbolic Video Game Music Paired with Gameplay Videos [1.8188255328029255]
389のNESゲームから98,940のゲームプレイビデオを含むNES-VMDBという新しいデータセットを紹介した。
NES-VMDBはニンテンドーエンタテインメント・システム・ミュージック・データベース(NES-MDB)上に構築されており、397のNESゲームから5,278曲を収録している。
ゲームプレイクリップに条件付きNES音楽を生成するための制御可能な音楽変換器に基づくベースライン手法を提案する。
論文 参考訳(メタデータ) (2024-04-05T21:41:20Z) - Emotion4MIDI: a Lyrics-based Emotion-Labeled Symbolic Music Dataset [1.3607388598209322]
12kのMIDI曲からなる大規模感情ラベル付きシンボリック・ミュージック・データセットを提案する。
最初に、GoEmotionsデータセット上で感情分類モデルを訓練し、ベースラインの半分の大きさのモデルで最先端の結果を得た。
我々のデータセットは、様々なきめ細かい感情をカバーし、音楽と感情の関連性を探るための貴重なリソースを提供する。
論文 参考訳(メタデータ) (2023-07-27T11:24:47Z) - MARBLE: Music Audio Representation Benchmark for Universal Evaluation [79.25065218663458]
我々は,UniversaL Evaluation(MARBLE)のための音楽音響表現ベンチマークを紹介する。
音響、パフォーマンス、スコア、ハイレベルな記述を含む4つの階層レベルを持つ包括的分類を定義することで、様々な音楽情報検索(MIR)タスクのベンチマークを提供することを目的としている。
次に、8つの公開データセット上の14のタスクに基づいて統一されたプロトコルを構築し、ベースラインとして音楽録音で開発されたすべてのオープンソース事前学習モデルの表現を公平かつ標準的に評価する。
論文 参考訳(メタデータ) (2023-06-18T12:56:46Z) - Tollywood Emotions: Annotation of Valence-Arousal in Telugu Song Lyrics [0.0]
Spotifyから収集したTeluguの歌詞を手動で注釈付けしたデータセットを提示する。
2つの分類手法を用いて2つの音楽感情認識モデルを作成する。
データセットを、歌詞、アノテーション、Spotify IDで公開しています。
論文 参考訳(メタデータ) (2023-03-16T14:47:52Z) - MAFW: A Large-scale, Multi-modal, Compound Affective Database for
Dynamic Facial Expression Recognition in the Wild [56.61912265155151]
大規模複合感情データベースMAFWを提案する。
各クリップには、複雑な感情カテゴリーと、クリップ内の被験者の感情行動を記述する2つの文が注釈付けされている。
複合感情のアノテーションでは、それぞれのクリップは、怒り、嫌悪感、恐怖、幸福、中立、悲しみ、驚き、軽蔑、不安、無力感、失望など、広く使われている11の感情のうちの1つ以上に分類される。
論文 参考訳(メタデータ) (2022-08-01T13:34:33Z) - A Novel Multi-Task Learning Method for Symbolic Music Emotion
Recognition [76.65908232134203]
Symbolic Music Emotion Recognition(SMER)は、MIDIやMusicXMLなどのシンボリックデータから音楽の感情を予測すること。
本稿では、感情認識タスクを他の感情関連補助タスクに組み込む、SMERのためのシンプルなマルチタスクフレームワークを提案する。
論文 参考訳(メタデータ) (2022-01-15T07:45:10Z) - MusicBERT: Symbolic Music Understanding with Large-Scale Pre-Training [97.91071692716406]
シンボリック・ミュージックの理解(シンボリック・ミュージックの理解)とは、シンボリック・データから音楽を理解することを指す。
MusicBERTは、音楽理解のための大規模な事前訓練モデルである。
論文 参考訳(メタデータ) (2021-06-10T10:13:05Z) - PopMAG: Pop Music Accompaniment Generation [190.09996798215738]
単一シーケンスでの同時マルチトラック生成が可能なMUlti-track MIDI表現(MuMIDI)を提案する。
MuMIDIはシーケンス長を拡大し、長期音楽モデリングの新しい課題をもたらす。
我々は,ポップミュージックの伴奏生成をPopMAGと呼ぶ。
論文 参考訳(メタデータ) (2020-08-18T02:28:36Z) - Computer-Generated Music for Tabletop Role-Playing Games [18.324855371704313]
本稿では,ロールプレイングゲームのためのバックグラウンド音楽を生成するシステムであるBardo Composerを紹介する。
Bardo Composerは音声認識システムを使用して、プレイヤーの音声をテキストに変換する。
本研究では,116人の参加者を対象に,システムによって生成された感情を正しく識別できるかどうかをユーザスタディで検証した。
論文 参考訳(メタデータ) (2020-08-16T21:53:49Z) - Foley Music: Learning to Generate Music from Videos [115.41099127291216]
Foley Musicは、楽器を演奏する人々に関するサイレントビデオクリップのために、可愛らしい音楽を合成できるシステムだ。
まず、ビデオから音楽生成に成功するための2つの重要な中間表現、すなわち、ビデオからのボディーキーポイントと、オーディオ録音からのMIDIイベントを識別する。
身体の動きに応じてMIDIイベントシーケンスを正確に予測できるグラフ$-$Transformerフレームワークを提案する。
論文 参考訳(メタデータ) (2020-07-21T17:59:06Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。