論文の概要: Performer Identification From Symbolic Representation of Music Using
Statistical Models
- arxiv url: http://arxiv.org/abs/2108.02576v1
- Date: Thu, 5 Aug 2021 12:32:54 GMT
- ステータス: 処理完了
- システム内更新日: 2021-08-06 17:25:55.800324
- Title: Performer Identification From Symbolic Representation of Music Using
Statistical Models
- Title(参考訳): 統計的モデルを用いた記号表現による演奏者同定
- Authors: Syed Rifat Mahmud Rafee, Gyorgy Fazekas, Geraint A.~Wiggins
- Abstract要約: 本研究は,9人のヴィルトゥオーソ・ピアニストが個別に行う「B-flat major, D.960」におけるシューベルトのソナタの4つの楽章からなるデータセットについて述べる。
そこで我々は,個々の演奏者のスタイルの特徴を把握できる表現的特徴セットを提案し,抽出した。
- 参考スコア(独自算出の注目度): 1.9444242128493845
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Music Performers have their own idiosyncratic way of interpreting a musical
piece. A group of skilled performers playing the same piece of music would
likely to inject their unique artistic styles in their performances. The
variations of the tempo, timing, dynamics, articulation etc. from the actual
notated music are what make the performers unique in their performances. This
study presents a dataset consisting of four movements of Schubert's ``Sonata in
B-flat major, D.960" performed by nine virtuoso pianists individually. We
proposed and extracted a set of expressive features that are able to capture
the characteristics of an individual performer's style. We then present a
performer identification method based on the similarity of feature
distribution, given a set of piano performances. The identification is done
considering each feature individually as well as a fusion of the features.
Results show that the proposed method achieved a precision of 0.903 using
fusion features. Moreover, the onset time deviation feature shows promising
result when considered individually.
- Abstract(参考訳): Music Performersは、楽曲を解釈する独自の慣用的な方法を持っている。
同じ曲を演奏する熟練したパフォーマーのグループは、彼らの演奏に独自の芸術スタイルを注入する可能性が高い。
テンポ、タイミング、ダイナミクス、調音などのバリエーション。
実際の楽譜から、演奏者が演奏においてユニークなものとなる。
本研究では、9人のヴィルトゥオーゾ・ピアニストがそれぞれ行うシューベルトの「ソナタ」の4つの楽章からなるデータセットについて述べる。
我々は,個々の演奏者のスタイルの特徴を把握できる表現的特徴セットを提案し,抽出した。
次に,ピアノ演奏のセットを与えられた特徴分布の類似性に基づく演奏者識別法を提案する。
それぞれの特徴と特徴の融合を個別に考慮して識別を行う。
その結果, 核融合特性を用いた0.903の精度が得られた。
さらに、このオンセット時間偏差特徴は、個別に考えると有望な結果を示す。
関連論文リスト
- Automatic Estimation of Singing Voice Musical Dynamics [9.343063100314687]
本稿では,データセットキュレーションの方法論を提案する。
我々は163のスコアファイルと一致して509の楽曲のダイナミックスを歌声の演奏に注釈付けしたデータセットをコンパイルする。
我々は、様々なウィンドウサイズを持つCNNモデルを訓練し、音楽力学を推定するの有効性を評価する。
実験の結果,バークスケールによる音声力学予測は対数メル特徴よりも優れていた。
論文 参考訳(メタデータ) (2024-10-27T18:15:18Z) - RMSSinger: Realistic-Music-Score based Singing Voice Synthesis [56.51475521778443]
RMS-SVSは、異なる音符タイプでリアル音楽のスコアを与えられた高品質な歌声を生成することを目的としている。
RMS-SVS方式であるRMSSingerを提案する。
RMSSingerでは,時間を要する音素の持続時間アノテーションと複雑な音素レベルのメルノートアライメントを避けるために,単語レベルのモデリングを導入する。
論文 参考訳(メタデータ) (2023-05-18T03:57:51Z) - And what if two musical versions don't share melody, harmony, rhythm, or
lyrics ? [2.4366811507669124]
歌詞の近似表現は、バージョンと非バージョンを識別する効率的なプロキシであることを示す。
次に、これらの機能が相互に補完し、公開された2つのデータセット上で新しい最先端のパフォーマンスを得る方法について説明する。
論文 参考訳(メタデータ) (2022-10-03T22:33:14Z) - Quantized GAN for Complex Music Generation from Dance Videos [48.196705493763986]
D2M-GAN(Dance2Music-GAN, D2M-GAN, D2M-GAN)は、ダンスビデオに条件付けされた楽曲のサンプルを生成する新しいマルチモーダルフレームワークである。
提案フレームワークは,ダンスビデオフレームと人体の動きを入力とし,対応する入力に付随する音楽サンプルを生成することを学習する。
論文 参考訳(メタデータ) (2022-04-01T17:53:39Z) - Dual Learning Music Composition and Dance Choreography [57.55406449959893]
音楽とダンスは常に人間の活動の柱として共存しており、文化的、社会的、娯楽的な機能に大きく貢献している。
近年の研究では、音楽に調和したダンスシーケンスの生成モデルについて研究されている。
両タスクを二重学習アプローチで共同でモデル化する,新しい拡張を提案する。
論文 参考訳(メタデータ) (2022-01-28T09:20:28Z) - Score Transformer: Generating Musical Score from Note-level
Representation [2.3554584457413483]
音符レベルの表現を適切な音楽表記に変換するためにトランスフォーマーモデルを訓練する。
また、モデルを扱うための効果的な表記レベルトークン表現についても検討する。
論文 参考訳(メタデータ) (2021-12-01T09:08:01Z) - MusicBERT: Symbolic Music Understanding with Large-Scale Pre-Training [97.91071692716406]
シンボリック・ミュージックの理解(シンボリック・ミュージックの理解)とは、シンボリック・データから音楽を理解することを指す。
MusicBERTは、音楽理解のための大規模な事前訓練モデルである。
論文 参考訳(メタデータ) (2021-06-10T10:13:05Z) - Bach or Mock? A Grading Function for Chorales in the Style of J.S. Bach [74.09517278785519]
本稿では,J.S.バッハ様式の4パート合唱曲を重要な音楽的特徴とともに評価するグレーディング機能を提案する。
この機能は,Bach合唱曲とモデル生成の合唱曲を区別する上で,人間専門家より優れていることを示す。
論文 参考訳(メタデータ) (2020-06-23T21:02:55Z) - Music Gesture for Visual Sound Separation [121.36275456396075]
ミュージック・ジェスチャ(Music Gesture)は、音楽演奏時の演奏者の身体と指の動きを明示的にモデル化するキーポイントに基づく構造化表現である。
まず、コンテキスト対応グラフネットワークを用いて、視覚的コンテキストと身体力学を統合し、その後、身体の動きと対応する音声信号とを関連付けるために、音声-視覚融合モデルを適用する。
論文 参考訳(メタデータ) (2020-04-20T17:53:46Z) - Exploring Inherent Properties of the Monophonic Melody of Songs [10.055143995729415]
本稿では,音韻メロディの解釈可能な特徴の集合を計算目的で提案する。
これらの特徴は数学的形式だけでなく、作曲家の直観にも考慮されている。
これらの特徴は、合唱的な作曲の実践であっても、多くのジャンルの歌において普遍的に人々によって考慮されている。
論文 参考訳(メタデータ) (2020-03-20T14:13:16Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。