論文の概要: Motif-Centric Representation Learning for Symbolic Music
- arxiv url: http://arxiv.org/abs/2309.10597v1
- Date: Tue, 19 Sep 2023 13:09:03 GMT
- ステータス: 処理完了
- システム内更新日: 2023-09-20 14:22:21.400203
- Title: Motif-Centric Representation Learning for Symbolic Music
- Title(参考訳): シンボリック音楽のためのモチーフ中心表現学習
- Authors: Yuxuan Wu, Roger B. Dannenberg, Gus Xia
- Abstract要約: 我々は、表現学習を通してモチーフとそのバリエーションの間の暗黙の関係を学習する。
正規化に基づくVICRegは事前学習に採用され、コントラスト学習は微調整に使用されている。
得られたモチーフ表現を可視化し、楽曲全体の構造を直感的に理解する。
- 参考スコア(独自算出の注目度): 5.781931021964343
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Music motif, as a conceptual building block of composition, is crucial for
music structure analysis and automatic composition. While human listeners can
identify motifs easily, existing computational models fall short in
representing motifs and their developments. The reason is that the nature of
motifs is implicit, and the diversity of motif variations extends beyond simple
repetitions and modulations. In this study, we aim to learn the implicit
relationship between motifs and their variations via representation learning,
using the Siamese network architecture and a pretraining and fine-tuning
pipeline. A regularization-based method, VICReg, is adopted for pretraining,
while contrastive learning is used for fine-tuning. Experimental results on a
retrieval-based task show that these two methods complement each other,
yielding an improvement of 12.6% in the area under the precision-recall curve.
Lastly, we visualize the acquired motif representations, offering an intuitive
comprehension of the overall structure of a music piece. As far as we know,
this work marks a noteworthy step forward in computational modeling of music
motifs. We believe that this work lays the foundations for future applications
of motifs in automatic music composition and music information retrieval.
- Abstract(参考訳): 音楽モチーフは、作曲の概念的な構成要素として、音楽の構造分析や自動作曲に不可欠である。
人間のリスナーは容易にモチーフを識別できるが、既存の計算モデルはモチーフとその発展を表すのに不足している。
その理由はモチーフの性質が暗黙的であり、モチーフの多様性は単純な反復や変調を超えて広がるからである。
本研究では,siameseネットワークアーキテクチャと事前学習と微調整パイプラインを用いて,モチーフと表現学習による変化の関係を暗黙的に学習することを目的とした。
正規化ベースの方法であるvicregが事前学習に採用され、対照的な学習が微調整に使用される。
検索に基づくタスク実験の結果,これら2つの手法が相互に補完することが明らかとなり,精度リコール曲線下の領域では12.6%向上した。
最後に、得られたモチーフ表現を可視化し、楽曲全体の構造を直感的に理解する。
私たちが知る限りでは、この作品は音楽モチーフの計算モデリングにおける注目すべき一歩である。
本研究は,自動作曲と音楽情報検索におけるモチーフの今後の活用の基礎となるものと考えられる。
関連論文リスト
- Towards Explainable and Interpretable Musical Difficulty Estimation: A Parameter-efficient Approach [49.2787113554916]
音楽コレクションの整理には曲の難易度を推定することが重要である。
シンボリックな音楽表現の難易度推定には説明可能な記述子を用いる。
ピアノレパートリーで評価したアプローチは,平均2乗誤差(MSE)が1.7。
論文 参考訳(メタデータ) (2024-08-01T11:23:42Z) - Perception-Inspired Graph Convolution for Music Understanding Tasks [3.5570874721859016]
本稿では,楽譜データの効率的な処理を目的とした新しいグラフ畳み込みブロックMusGConvを提案する。
我々は4つの異なる音楽理解問題に対するアプローチを評価する。
論文 参考訳(メタデータ) (2024-05-15T10:04:44Z) - The Music Note Ontology [0.34265828682659694]
音楽ノートオントロジー(英: Music Note Ontology)は、音楽ノートとその実現をモデル化するためのオントロジーである。
これは記号表現システムで表される音符と、その実現との関係に対処する。
論文 参考訳(メタデータ) (2023-03-30T10:51:10Z) - Contrastive Learning with Positive-Negative Frame Mask for Music
Representation [91.44187939465948]
本稿では,PEMRと略記したコントラッシブラーニングフレームワークに基づく,音楽表現のための正負負のフレームマスクを提案する。
我々は,同じ音楽からサンプリングした自己増強陽性/陰性の両方に対応するために,新しいコントラスト学習目標を考案した。
論文 参考訳(メタデータ) (2022-03-17T07:11:42Z) - A framework to compare music generative models using automatic
evaluation metrics extended to rhythm [69.2737664640826]
本稿では,前回の研究で提示された,リズムを考慮せず,設計決定を下すための枠組みを取り上げ,単音素音楽作成における2つのrnnメモリセルの性能評価のためにリズムサポートを付加した。
モデルでは,音素変換の処理を考慮し,リズムサポートを付加した幾何学に基づく自動計測値を用いて,生成した楽曲の質を評価する。
論文 参考訳(メタデータ) (2021-01-19T15:04:46Z) - Sequence Generation using Deep Recurrent Networks and Embeddings: A
study case in music [69.2737664640826]
本稿では,異なる種類の記憶機構(メモリセル)について評価し,音楽合成分野におけるその性能について検討する。
提案したアーキテクチャの性能を自動評価するために,定量的な測定値のセットが提示される。
論文 参考訳(メタデータ) (2020-12-02T14:19:19Z) - Music Gesture for Visual Sound Separation [121.36275456396075]
ミュージック・ジェスチャ(Music Gesture)は、音楽演奏時の演奏者の身体と指の動きを明示的にモデル化するキーポイントに基づく構造化表現である。
まず、コンテキスト対応グラフネットワークを用いて、視覚的コンテキストと身体力学を統合し、その後、身体の動きと対応する音声信号とを関連付けるために、音声-視覚融合モデルを適用する。
論文 参考訳(メタデータ) (2020-04-20T17:53:46Z) - Continuous Melody Generation via Disentangled Short-Term Representations
and Structural Conditions [14.786601824794369]
ユーザが指定したシンボリックシナリオと過去の音楽コンテキストを組み合わせることで,メロディーを構成するモデルを提案する。
本モデルでは,8拍子の音符列を基本単位として長い旋律を生成でき,一貫したリズムパターン構造を他の特定の歌と共有することができる。
その結果,本モデルが生成する音楽は,顕著な繰り返し構造,豊かな動機,安定したリズムパターンを有する傾向が示唆された。
論文 参考訳(メタデータ) (2020-02-05T06:23:44Z) - Multi-Modal Music Information Retrieval: Augmenting Audio-Analysis with
Visual Computing for Improved Music Video Analysis [91.3755431537592]
この論文は、音声分析とコンピュータビジョンを組み合わせて、マルチモーダルの観点から音楽情報検索(MIR)タスクにアプローチする。
本研究の主な仮説は、ジャンルやテーマなど特定の表現的カテゴリーを視覚的内容のみに基づいて認識できるという観察に基づいている。
実験は、3つのMIRタスクに対して行われ、アーティスト識別、音楽ジェネア分類、クロスジェネア分類を行う。
論文 参考訳(メタデータ) (2020-02-01T17:57:14Z) - Modeling Musical Structure with Artificial Neural Networks [0.0]
音楽構造モデリングのさまざまな側面に対する人工知能の適用について検討する。
Gated Autoencoder(GAE)というコネクショナリストモデルを用いて,楽曲の断片間の変換を学習する方法を示す。
本稿では,ポリフォニック・ミュージックを区間の連続として表現するGAEの特別な予測訓練を提案する。
論文 参考訳(メタデータ) (2020-01-06T18:35:57Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。