論文の概要: Pitchclass2vec: Symbolic Music Structure Segmentation with Chord
Embeddings
- arxiv url: http://arxiv.org/abs/2303.15306v1
- Date: Fri, 24 Mar 2023 10:23:15 GMT
- ステータス: 処理完了
- システム内更新日: 2023-03-28 14:35:41.377210
- Title: Pitchclass2vec: Symbolic Music Structure Segmentation with Chord
Embeddings
- Title(参考訳): Pitchclass2vec: コード埋め込みによるシンボリック音楽構造セグメンテーション
- Authors: Nicolas Lazzari, Andrea Poltronieri, Valentina Presutti
- Abstract要約: シンボリックコードアノテーションに基づく新しい楽曲セグメンテーション手法であるpitchclass2vecを提案する。
提案アルゴリズムは,Long-Short term memory(LSTM)ニューラルネットワークをベースとして,現場における記号コードアノテーションに基づく最先端技術より優れている。
- 参考スコア(独自算出の注目度): 0.8701566919381222
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Structure perception is a fundamental aspect of music cognition in humans.
Historically, the hierarchical organization of music into structures served as
a narrative device for conveying meaning, creating expectancy, and evoking
emotions in the listener. Thereby, musical structures play an essential role in
music composition, as they shape the musical discourse through which the
composer organises his ideas. In this paper, we present a novel music
segmentation method, pitchclass2vec, based on symbolic chord annotations, which
are embedded into continuous vector representations using both natural language
processing techniques and custom-made encodings. Our algorithm is based on
long-short term memory (LSTM) neural network and outperforms the
state-of-the-art techniques based on symbolic chord annotations in the field.
- Abstract(参考訳): 構造知覚は人間の音楽認知の基本的な側面である。
歴史的に、音楽の階層構造は、意味を伝達し、期待を作り、リスナーの感情を喚起するための物語装置として機能した。
これにより、作曲者が自分の考えを整理する音楽的談話を形成するため、音楽構造は作曲において重要な役割を担っている。
本稿では,自然言語処理技術とカスタムメイド符号化技術の両方を用いて,連続ベクトル表現に埋め込まれた記号コードアノテーションに基づく新しい楽曲セグメンテーション手法である2vecを提案する。
提案アルゴリズムは,Long-Short term memory(LSTM)ニューラルネットワークをベースとして,現場における記号コードアノテーションに基づく最先端技術より優れている。
関連論文リスト
- Structuring Concept Space with the Musical Circle of Fifths by Utilizing
Music Grammar Based Activations [0.0]
スパイクネットワークなどの離散ニューラルネットワークの構造とピアノ作品の構成との興味深い類似性について検討する。
スパイクニューラルネットワークにおけるアクティベーションの制御に音楽文法を活用する新しい手法を提案する。
本稿では,本モデルにおける概念マップが5番目の音楽サークルによって構成されていることを示し,深層学習アルゴリズムにおける音楽理論の原理を活用する可能性を明らかにする。
論文 参考訳(メタデータ) (2024-02-22T03:28:25Z) - Structure-informed Positional Encoding for Music Generation [0.0]
トランスフォーマーを用いた音楽生成のための構造インフォームド位置符号化フレームワークを提案する。
我々は、次のステップ予測と伴奏生成という2つのシンボリックな音楽生成タスクでそれらをテストした。
提案手法は, 生成した部品の旋律的および構造的整合性を改善する。
論文 参考訳(メタデータ) (2024-02-20T13:41:35Z) - Graph-based Polyphonic Multitrack Music Generation [9.701208207491879]
本稿では,音楽のための新しいグラフ表現と,音楽グラフの構造と内容を別々に生成する深部変分オートエンコーダを提案する。
音楽グラフの構造と内容を分離することにより、特定のタイミングでどの楽器が演奏されているかを指定することで条件生成が可能となる。
論文 参考訳(メタデータ) (2023-07-27T15:18:50Z) - GETMusic: Generating Any Music Tracks with a Unified Representation and
Diffusion Framework [58.64512825534638]
シンボリック・ミュージック・ジェネレーションは、ユーザーが音楽を作るのに役立つ音符を作成することを目的としている。
私たちは「GETMusic」と呼ばれるフレームワークを紹介します。「GET'」は「GEnerate Music Tracks」の略です。
GETScoreは、音符をトークンとして表現し、2D構造でトークンを整理する。
提案する表現は,非自己回帰生成モデルと組み合わせて,任意のソース・ターゲットトラックの組み合わせでGETMusicに音楽を生成する。
論文 参考訳(メタデータ) (2023-05-18T09:53:23Z) - A Dataset for Greek Traditional and Folk Music: Lyra [69.07390994897443]
本稿では,80時間程度で要約された1570曲を含むギリシャの伝統音楽と民俗音楽のデータセットについて述べる。
このデータセットにはYouTubeのタイムスタンプ付きリンクが組み込まれており、オーディオやビデオの検索や、インスツルメンテーション、地理、ジャンルに関する豊富なメタデータ情報が含まれている。
論文 参考訳(メタデータ) (2022-11-21T14:15:43Z) - Contrastive Learning with Positive-Negative Frame Mask for Music
Representation [91.44187939465948]
本稿では,PEMRと略記したコントラッシブラーニングフレームワークに基づく,音楽表現のための正負負のフレームマスクを提案する。
我々は,同じ音楽からサンプリングした自己増強陽性/陰性の両方に対応するために,新しいコントラスト学習目標を考案した。
論文 参考訳(メタデータ) (2022-03-17T07:11:42Z) - MusicBERT: Symbolic Music Understanding with Large-Scale Pre-Training [97.91071692716406]
シンボリック・ミュージックの理解(シンボリック・ミュージックの理解)とは、シンボリック・データから音楽を理解することを指す。
MusicBERTは、音楽理解のための大規模な事前訓練モデルである。
論文 参考訳(メタデータ) (2021-06-10T10:13:05Z) - MusCaps: Generating Captions for Music Audio [14.335950077921435]
時間的注目のエンコーダデコーダで構成された最初の音楽オーディオキャプションモデルであるMusCapsを紹介します。
本手法は畳み込み型ニューラルネットワークアーキテクチャと繰り返し型ニューラルネットワークアーキテクチャを組み合わせて,音声テキスト入力を共同処理する。
我々のモデルは、分類に基づく音楽記述から脱却し、聴覚と言語の両方の理解を必要とするタスクを組み合わせている。
論文 参考訳(メタデータ) (2021-04-24T16:34:47Z) - Sequence Generation using Deep Recurrent Networks and Embeddings: A
study case in music [69.2737664640826]
本稿では,異なる種類の記憶機構(メモリセル)について評価し,音楽合成分野におけるその性能について検討する。
提案したアーキテクチャの性能を自動評価するために,定量的な測定値のセットが提示される。
論文 参考訳(メタデータ) (2020-12-02T14:19:19Z) - Music Gesture for Visual Sound Separation [121.36275456396075]
ミュージック・ジェスチャ(Music Gesture)は、音楽演奏時の演奏者の身体と指の動きを明示的にモデル化するキーポイントに基づく構造化表現である。
まず、コンテキスト対応グラフネットワークを用いて、視覚的コンテキストと身体力学を統合し、その後、身体の動きと対応する音声信号とを関連付けるために、音声-視覚融合モデルを適用する。
論文 参考訳(メタデータ) (2020-04-20T17:53:46Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。