論文の概要: WikiMT++ Dataset Card
- arxiv url: http://arxiv.org/abs/2309.13259v1
- Date: Sat, 23 Sep 2023 04:46:28 GMT
- ステータス: 処理完了
- システム内更新日: 2023-09-26 21:03:56.413685
- Title: WikiMT++ Dataset Card
- Title(参考訳): WikiMT++ データセットカード
- Authors: Monan Zhou, Shangda Wu, Yuan Wang, Wei Li
- Abstract要約: WikiMT++はWikiMusicText(WikiMT)の拡張版であり、ABCの表記で1010枚のキュレートされた鉛シートが使用されている。
WikiMTの応用シナリオを拡大するために、目的(album, lyrics, video)と主観的感情(12の感情形容詞)とemo_4q(Russell 4Q)属性を追加します。
CLaMPは、WikiMTから受け継いだ属性を修正して、元のデータ収集時に発生するエラーを減らすために実装されている。
- 参考スコア(独自算出の注目度): 12.369370396039919
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: WikiMT++ is an expanded and refined version of WikiMusicText (WikiMT),
featuring 1010 curated lead sheets in ABC notation. To expand application
scenarios of WikiMT, we add both objective (album, lyrics, video) and
subjective emotion (12 emotion adjectives) and emo\_4q (Russell 4Q) attributes,
enhancing its usability for music information retrieval, conditional music
generation, automatic composition, and emotion classification, etc.
Additionally, CLaMP is implemented to correct the attributes inherited from
WikiMT to reduce errors introduced during original data collection and enhance
the accuracy and completeness of our dataset.
- Abstract(参考訳): WikiMT++はWikiMusicText(WikiMT)の拡張版であり、ABCの表記で1010枚のキュレートされた鉛シートが使用されている。
wikimtの応用シナリオを拡大するために,目的感 (album, 歌詞, ビデオ) と主観感情 (12感情形容詞) とemo\_4q (russell 4q) 属性を加えて,音楽情報検索, 条件楽曲生成, 自動合成, 感情分類などのユーザビリティを向上させる。
さらに、CLaMPは、WikiMTから受け継いだ属性を補正し、元のデータ収集時に発生するエラーを低減し、データセットの精度と完全性を高めるために実装されている。
関連論文リスト
- Futga: Towards Fine-grained Music Understanding through Temporally-enhanced Generative Augmentation [18.12051302437043]
本稿では,時間的構成による生成的拡張から学習することで,微粒化音楽理解機能を備えたモデルを提案する。
既存の音楽キャプションデータセットと大言語モデル(LLM)を利用して、フル長曲の詳細な音楽キャプションを構造記述と時間境界で合成する。
論文 参考訳(メタデータ) (2024-07-29T22:53:32Z) - WikiMuTe: A web-sourced dataset of semantic descriptions for music audio [7.4327407361824935]
音楽の豊かな意味記述を含む新しいオープンデータセットWikiMuTeを提案する。
このデータはウィキペディアの豊富な楽曲に関する記事のカタログから得られたものである。
我々は、テキストと音声の表現を共同で学習し、モーダル検索を行うモデルを訓練する。
論文 参考訳(メタデータ) (2023-12-14T18:38:02Z) - WikiIns: A High-Quality Dataset for Controlled Text Editing by Natural
Language Instruction [56.196512595940334]
WikiInsは高品質な制御されたテキスト編集データセットで、情報性が向上している。
高品質なアノテートデータセットを用いて,大規模な銀のトレーニングセットを生成するための自動アプローチを提案する。
論文 参考訳(メタデータ) (2023-10-08T04:46:39Z) - MuseCoco: Generating Symbolic Music from Text [29.14875340011866]
MuseCocoは、音楽属性のテキスト記述からシンボリック音楽を生成する。
MuseCoCoは音楽コンポジション・コパイロット(Music Composition Copilot)の略で、ミュージシャンが与えられたテキストから音楽を直接生成できるようにする。
我々は120億のパラメータを持つロバストな大規模モデルを開発し、例外的な制御性と音楽性を示している。
論文 参考訳(メタデータ) (2023-05-31T18:34:16Z) - SWiPE: A Dataset for Document-Level Simplification of Wikipedia Pages [87.08880616654258]
我々は、SWiPEデータセットを導入し、英語のウィキペディア(EW)記事から単純なウィキペディア(SEW)記事への文書レベルの編集プロセスを再構築する。
我々はウィキペディアの編集者と協力して5000のEW-SEWドキュメントペアを注釈付けし、提案された19のカテゴリで4万以上の編集をラベル付けしています。
SWiPEで訓練されたモデルは、不要な編集を減らしながら、より複雑な編集を生成する。
論文 参考訳(メタデータ) (2023-05-30T16:52:42Z) - WikiDes: A Wikipedia-Based Dataset for Generating Short Descriptions
from Paragraphs [66.88232442007062]
ウィキデックスはウィキペディアの記事の短い記述を生成するデータセットである。
データセットは、6987のトピックに関する80万以上の英語サンプルで構成されている。
本論文は,ウィキペディアとウィキデータに多くの記述が欠落していることから,実際的な影響を示すものである。
論文 参考訳(メタデータ) (2022-09-27T01:28:02Z) - Unaligned Supervision For Automatic Music Transcription in The Wild [1.2183405753834562]
NoteEMは、トランクレーバーを同時に訓練し、スコアを対応するパフォーマンスに合わせる方法である。
我々は、MAPSデータセットのSOTAノートレベル精度と、データセット間の評価において好適なマージンを報告した。
論文 参考訳(メタデータ) (2022-04-28T17:31:43Z) - A Novel Multi-Task Learning Method for Symbolic Music Emotion
Recognition [76.65908232134203]
Symbolic Music Emotion Recognition(SMER)は、MIDIやMusicXMLなどのシンボリックデータから音楽の感情を予測すること。
本稿では、感情認識タスクを他の感情関連補助タスクに組み込む、SMERのためのシンプルなマルチタスクフレームワークを提案する。
論文 参考訳(メタデータ) (2022-01-15T07:45:10Z) - Generating Wikipedia Article Sections from Diverse Data Sources [57.23574577984244]
WikiTableTでいくつかのトレーニングとデコード戦略をベンチマークする。
我々の定性的な分析は、最良のアプローチは、流動的で高品質なテキストを生成することができるが、コヒーレンスに苦しむことがあることを示している。
論文 参考訳(メタデータ) (2020-12-29T19:35:34Z) - Mining Knowledge for Natural Language Inference from Wikipedia
Categories [53.26072815839198]
NLIおよびLEタスクのモデル性能を改善するためのリソースであるWikiNLIを紹介する。
ウィキペディアには、自然に注釈付けされたカテゴリー階層から作られた428,899の句が含まれている。
我々は、BERTやRoBERTaのような強力なベースラインをWikiNLIで事前訓練し、下流タスクでモデルを転送することで改善できることを示します。
論文 参考訳(メタデータ) (2020-10-03T00:45:01Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。