論文の概要: Zema Dataset: A Comprehensive Study of Yaredawi Zema with a Focus on Horologium Chants
- arxiv url: http://arxiv.org/abs/2412.18784v1
- Date: Wed, 25 Dec 2024 05:20:08 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-12-30 17:24:09.225085
- Title: Zema Dataset: A Comprehensive Study of Yaredawi Zema with a Focus on Horologium Chants
- Title(参考訳): Zema Dataset:Horologium Chantsに着目したYaledawi Zemaの総合的研究
- Authors: Mequanent Argaw Muluneh, Yan-Tsung Peng, Worku Abebe Degife, Nigussie Abate Tadesse, Aknachew Mebreku Demeku, Li Su,
- Abstract要約: エチオピア正教会のテワヘド教会聖歌は、計算音楽研究において比較的少なすぎる。
本稿では, ヤレダウィ・ゼマ(Yaledawi Zema)として知られる, EOTCの唱歌の分析に適した新しいデータセットを提案する。
- 参考スコア(独自算出の注目度): 7.062046866879682
- License:
- Abstract: Computational music research plays a critical role in advancing music production, distribution, and understanding across various musical styles worldwide. Despite the immense cultural and religious significance, the Ethiopian Orthodox Tewahedo Church (EOTC) chants are relatively underrepresented in computational music research. This paper contributes to this field by introducing a new dataset specifically tailored for analyzing EOTC chants, also known as Yaredawi Zema. This work provides a comprehensive overview of a 10-hour dataset, 369 instances, creation, and curation process, including rigorous quality assurance measures. Our dataset has a detailed word-level temporal boundary and reading tone annotation along with the corresponding chanting mode label of audios. Moreover, we have also identified the chanting options associated with multiple chanting notations in the manuscript by annotating them accordingly. Our goal in making this dataset available to the public 1 is to encourage more research and study of EOTC chants, including lyrics transcription, lyric-to-audio alignment, and music generation tasks. Such research work will advance knowledge and efforts to preserve this distinctive liturgical music, a priceless cultural artifact for the Ethiopian people.
- Abstract(参考訳): 計算音楽研究は、世界中の様々な音楽スタイルにおける音楽の制作、流通、理解を促進する上で重要な役割を担っている。
エチオピア正教テワヘド教会(EOTC)の聖歌は、文化的・宗教的に非常に重要でありながら、計算音楽研究においては比較的少なすぎる。
本論文は, ヤレダウィ・ゼマ (Yaledawi Zema) として知られる EOTC の韻律の分析に適した新しいデータセットを導入することにより, この分野に寄与する。
この研究は、厳格な品質保証措置を含む10時間のデータセット、369のインスタンス、作成、キュレーションプロセスの包括的な概要を提供する。
本データセットは,音声の発声モードラベルとともに,詳細な単語レベルの時間境界と音調アノテーションを有する。
また,本書の複数音節に付随する唱唱オプションも,それに応じて注釈を付けることで同定した。
このデータセットを一般公開する上での私たちの目標は、歌詞の書き起こし、歌詞と音声のアライメント、音楽生成タスクなど、EOTCの唱歌のさらなる研究と研究を促進することです。
このような研究は、エチオピアの人々にとって価値のない文化的アーティファクトである、この独特な典礼音楽を保存するための知識と努力を前進させるだろう。
関連論文リスト
- Aligned Music Notation and Lyrics Transcription [8.411893399638046]
本稿では,Aligned Music Notation and Lyrics Transcription (AMNLT) の課題を紹介する。
音楽記号、歌詞、それらの同期を共同で検討することで、声楽の完全な書き起こしに対処する。
我々は、音楽と歌詞を別々に扱う従来の分詞法から、新しいエンドツーエンドソリューションまで、この課題に対処するための様々なアプローチを評価する。
論文 参考訳(メタデータ) (2024-12-05T14:50:11Z) - Enriching Music Descriptions with a Finetuned-LLM and Metadata for Text-to-Music Retrieval [7.7464988473650935]
Text-to-Music Retrievalは、広範な音楽データベース内のコンテンツ発見において重要な役割を担っている。
本稿では,TTMR++と呼ばれる改良されたテキスト・音楽検索モデルを提案する。
論文 参考訳(メタデータ) (2024-10-04T09:33:34Z) - Optical Music Recognition in Manuscripts from the Ricordi Archive [6.274767633959002]
リコルディのアーカイブは、ドニゼッティ、ヴェルディ、プッチーニといった著名なオペラ作曲家の著名な音楽写本のコレクションであり、デジタル化されている。
我々は,ノート,ステーブ,クリーフ,消去,作曲家の注釈など,写本に描かれた様々な音楽要素を表すサンプルを自動的に抽出した。
我々は、識別された音楽要素を区別するために、複数のニューラルネットワークベースの分類器を訓練した。
論文 参考訳(メタデータ) (2024-08-14T09:29:11Z) - MeLFusion: Synthesizing Music from Image and Language Cues using Diffusion Models [57.47799823804519]
私たちは、ミュージシャンが映画の脚本だけでなく、視覚化を通して音楽を作る方法にインスピレーションを受けています。
本稿では,テキスト記述と対応する画像からの手がかりを効果的に利用して音楽を合成するモデルであるMeLFusionを提案する。
音楽合成パイプラインに視覚情報を加えることで、生成した音楽の質が大幅に向上することを示す。
論文 参考訳(メタデータ) (2024-06-07T06:38:59Z) - MuPT: A Generative Symbolic Music Pretrained Transformer [56.09299510129221]
音楽の事前学習におけるLarge Language Models (LLM) の適用について検討する。
生成過程の異なるトラックからの不整合対策に関連する課題に対処するために,SMT-ABC Notation(Synchronized Multi-Track ABC Notation)を提案する。
私たちのコントリビューションには、最大8192個のトークンを処理可能な一連のモデルが含まれており、トレーニングセットの象徴的な音楽データの90%をカバーしています。
論文 参考訳(メタデータ) (2024-04-09T15:35:52Z) - MARBLE: Music Audio Representation Benchmark for Universal Evaluation [79.25065218663458]
我々は,UniversaL Evaluation(MARBLE)のための音楽音響表現ベンチマークを紹介する。
音響、パフォーマンス、スコア、ハイレベルな記述を含む4つの階層レベルを持つ包括的分類を定義することで、様々な音楽情報検索(MIR)タスクのベンチマークを提供することを目的としている。
次に、8つの公開データセット上の14のタスクに基づいて統一されたプロトコルを構築し、ベースラインとして音楽録音で開発されたすべてのオープンソース事前学習モデルの表現を公平かつ標準的に評価する。
論文 参考訳(メタデータ) (2023-06-18T12:56:46Z) - Melody transcription via generative pre-training [86.08508957229348]
メロディの書き起こしの鍵となる課題は、様々な楽器のアンサンブルや音楽スタイルを含む幅広いオーディオを処理できる方法を構築することである。
この課題に対処するために、広帯域オーディオの生成モデルであるJukebox(Dhariwal et al. 2020)の表現を活用する。
広義音楽のクラウドソースアノテーションから50ドル(約5,400円)のメロディ書き起こしを含む新しいデータセットを導出する。
論文 参考訳(メタデータ) (2022-12-04T18:09:23Z) - A Dataset for Greek Traditional and Folk Music: Lyra [69.07390994897443]
本稿では,80時間程度で要約された1570曲を含むギリシャの伝統音楽と民俗音楽のデータセットについて述べる。
このデータセットにはYouTubeのタイムスタンプ付きリンクが組み込まれており、オーディオやビデオの検索や、インスツルメンテーション、地理、ジャンルに関する豊富なメタデータ情報が含まれている。
論文 参考訳(メタデータ) (2022-11-21T14:15:43Z) - Music-to-Text Synaesthesia: Generating Descriptive Text from Music
Recordings [36.090928638883454]
音楽からテキストへの合成は、音楽録音から記述的なテキストを同じ感情で生成し、さらに理解することを目的としている。
音楽録音の内容を記述可能な文を生成するための計算モデルを構築した。
非差別的なクラシック音楽に対処するために,グループトポロジ保存損失を設計する。
論文 参考訳(メタデータ) (2022-10-02T06:06:55Z) - Multi-Modal Music Information Retrieval: Augmenting Audio-Analysis with
Visual Computing for Improved Music Video Analysis [91.3755431537592]
この論文は、音声分析とコンピュータビジョンを組み合わせて、マルチモーダルの観点から音楽情報検索(MIR)タスクにアプローチする。
本研究の主な仮説は、ジャンルやテーマなど特定の表現的カテゴリーを視覚的内容のみに基づいて認識できるという観察に基づいている。
実験は、3つのMIRタスクに対して行われ、アーティスト識別、音楽ジェネア分類、クロスジェネア分類を行う。
論文 参考訳(メタデータ) (2020-02-01T17:57:14Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。