論文の概要: Chord Embeddings: Analyzing What They Capture and Their Role for Next
Chord Prediction and Artist Attribute Prediction
- arxiv url: http://arxiv.org/abs/2102.02917v1
- Date: Thu, 4 Feb 2021 22:17:17 GMT
- ステータス: 処理完了
- システム内更新日: 2021-02-08 14:50:00.134708
- Title: Chord Embeddings: Analyzing What They Capture and Their Role for Next
Chord Prediction and Artist Attribute Prediction
- Title(参考訳): Chord Embeddings:何をキャプチャし、次のコード予測とアーティスト属性予測のための役割を分析します。
- Authors: Allison Lahnala, Gauri Kambhatla, Jiajun Peng, Matthew Whitehead,
Gillian Minnehan, Eric Guldan, Jonathan K. Kummerfeld, An{\i}l \c{C}amc{\i},
Rada Mihalcea
- Abstract要約: コード埋め込みは、音楽理論に記述された重要な関係に従属するコード間の類似性を捉えていることを示す。
最初のケーススタディでは、次のコード予測タスクにコード埋め込みを用いることで、経験豊富なミュージシャンのコードとより密に一致した予測が得られることを示した。
第2のケーススタディでは,音楽的テクスチャに関連するタスクにおいて,表現を使用することの潜在的な利点を示す。
- 参考スコア(独自算出の注目度): 22.591288235580876
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Natural language processing methods have been applied in a variety of music
studies, drawing the connection between music and language. In this paper, we
expand those approaches by investigating \textit{chord embeddings}, which we
apply in two case studies to address two key questions: (1) what musical
information do chord embeddings capture?; and (2) how might musical
applications benefit from them? In our analysis, we show that they capture
similarities between chords that adhere to important relationships described in
music theory. In the first case study, we demonstrate that using chord
embeddings in a next chord prediction task yields predictions that more closely
match those by experienced musicians. In the second case study, we show the
potential benefits of using the representations in tasks related to musical
stylometrics.
- Abstract(参考訳): 自然言語処理法は様々な音楽研究に応用され、音楽と言語との関係を描いている。
本稿では,(1)コード組込みはどのような音楽情報を取り込むのか,という2つの重要な疑問に答えるために,2つのケーススタディで適用する,\textit{chord embeddeds} について検討することで,そのアプローチを拡大する。
と(2)音楽アプリケーションはどのようにそれらから利益がありますか?
本分析では,音楽理論に記述された重要な関係に従属する和音間の類似性を捉えた。
第1のケーススタディでは、コード埋め込みを次のコード予測タスクに使用することで、経験豊富なミュージシャンの予測とより密接にマッチする予測が得られることを実証する。
第2のケーススタディでは,音楽スタイロメトリックスに関連するタスクにおける表現の使用による潜在的メリットを示す。
関連論文リスト
- Cluster and Separate: a GNN Approach to Voice and Staff Prediction for Score Engraving [5.572472212662453]
本稿では,音符を量子化された記号楽曲(例えばMIDIファイル)から複数の音声とステーブに分離する問題にアプローチする。
本稿では,同じ和音に属する音符を音声の一部であればエッジで接続する,グラフニューラルネットワークに基づくエンドツーエンドシステムを提案する。
論文 参考訳(メタデータ) (2024-07-15T14:36:13Z) - MuPT: A Generative Symbolic Music Pretrained Transformer [56.09299510129221]
音楽の事前学習におけるLarge Language Models (LLM) の適用について検討する。
生成過程の異なるトラックからの不整合対策に関連する課題に対処するために,SMT-ABC Notation(Synchronized Multi-Track ABC Notation)を提案する。
私たちのコントリビューションには、最大8192個のトークンを処理可能な一連のモデルが含まれており、トレーニングセットの象徴的な音楽データの90%をカバーしています。
論文 参考訳(メタデータ) (2024-04-09T15:35:52Z) - Towards Contrastive Learning in Music Video Domain [46.29203572184694]
我々は、オーディオとビデオのモダリティのためのデュアルエンコーダを作成し、双方向のコントラスト損失を用いてトレーニングする。
実験では、50万曲のミュージックビデオを含む業界データセットと、公開ミリオンソングデータセットを使用します。
この結果から, コントラスト的な微調整のない事前学習ネットワークは, 両タスクで評価した場合に, コントラスト的な学習手法より優れていたことが示唆された。
論文 参考訳(メタデータ) (2023-09-01T09:08:21Z) - Pitchclass2vec: Symbolic Music Structure Segmentation with Chord
Embeddings [0.8701566919381222]
シンボリックコードアノテーションに基づく新しい楽曲セグメンテーション手法であるpitchclass2vecを提案する。
提案アルゴリズムは,Long-Short term memory(LSTM)ニューラルネットワークをベースとして,現場における記号コードアノテーションに基づく最先端技術より優れている。
論文 参考訳(メタデータ) (2023-03-24T10:23:15Z) - A Dataset for Greek Traditional and Folk Music: Lyra [69.07390994897443]
本稿では,80時間程度で要約された1570曲を含むギリシャの伝統音楽と民俗音楽のデータセットについて述べる。
このデータセットにはYouTubeのタイムスタンプ付きリンクが組み込まれており、オーディオやビデオの検索や、インスツルメンテーション、地理、ジャンルに関する豊富なメタデータ情報が含まれている。
論文 参考訳(メタデータ) (2022-11-21T14:15:43Z) - Music-to-Text Synaesthesia: Generating Descriptive Text from Music
Recordings [36.090928638883454]
音楽からテキストへの合成は、音楽録音から記述的なテキストを同じ感情で生成し、さらに理解することを目的としている。
音楽録音の内容を記述可能な文を生成するための計算モデルを構築した。
非差別的なクラシック音楽に対処するために,グループトポロジ保存損失を設計する。
論文 参考訳(メタデータ) (2022-10-02T06:06:55Z) - Contrastive Learning with Positive-Negative Frame Mask for Music
Representation [91.44187939465948]
本稿では,PEMRと略記したコントラッシブラーニングフレームワークに基づく,音楽表現のための正負負のフレームマスクを提案する。
我々は,同じ音楽からサンプリングした自己増強陽性/陰性の両方に対応するために,新しいコントラスト学習目標を考案した。
論文 参考訳(メタデータ) (2022-03-17T07:11:42Z) - dMelodies: A Music Dataset for Disentanglement Learning [70.90415511736089]
我々は、研究者が様々な領域でアルゴリズムの有効性を実証するのに役立つ新しいシンボリック・ミュージック・データセットを提案する。
これはまた、音楽用に特別に設計されたアルゴリズムを評価する手段を提供する。
データセットは、遠絡学習のためのディープネットワークのトレーニングとテストに十分な大きさ(約13万データポイント)である。
論文 参考訳(メタデータ) (2020-07-29T19:20:07Z) - Musical Word Embedding: Bridging the Gap between Listening Contexts and
Music [5.89179309980335]
我々は、一般的なテキストデータと音楽固有のデータの組み合わせを用いて、単語の分散表現を訓練する。
聴取コンテキストと楽曲の関連性の観点からシステムの評価を行った。
論文 参考訳(メタデータ) (2020-07-23T06:42:45Z) - Music Gesture for Visual Sound Separation [121.36275456396075]
ミュージック・ジェスチャ(Music Gesture)は、音楽演奏時の演奏者の身体と指の動きを明示的にモデル化するキーポイントに基づく構造化表現である。
まず、コンテキスト対応グラフネットワークを用いて、視覚的コンテキストと身体力学を統合し、その後、身体の動きと対応する音声信号とを関連付けるために、音声-視覚融合モデルを適用する。
論文 参考訳(メタデータ) (2020-04-20T17:53:46Z) - Structural characterization of musical harmonies [4.416484585765029]
本研究では,エビデンスを収集する数値法を用いて変調を検出し,検出した調音性に基づいて,各調音成分の構造解析に非あいまいな文法を用いるハイブリッド手法を提案する。
XVIIとXVIII世紀の音楽による実験では、ほぼ97%のケースにおいて、少なくとも2つの和音の誤りで変調の正確な点を検出することができた。
論文 参考訳(メタデータ) (2019-12-27T23:15:49Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。