論文の概要: From melodic note sequences to pitches using word2vec
- arxiv url: http://arxiv.org/abs/2410.22285v1
- Date: Tue, 29 Oct 2024 17:38:27 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-10-30 13:42:32.518236
- Title: From melodic note sequences to pitches using word2vec
- Title(参考訳): word2vecを用いた旋律音符列からピッチへ
- Authors: Daniel Defays,
- Abstract要約: 本研究では,20人の子どもの歌とバッハソナタからの抜粋の2つのデータセットについて検討した。
言語モデリングで一般的に使用される word2vec 技法を、音符を文中の単語として扱うメロディーに適用することで、ピッチ情報の取得を可能にする。
- 参考スコア(独自算出の注目度): 0.0
- License:
- Abstract: Applying the word2vec technique, commonly used in language modeling, to melodies, where notes are treated as words in sentences, enables the capture of pitch information. This study examines two datasets: 20 children's songs and an excerpt from a Bach sonata. The semantic space for defining the embeddings is of very small dimension, specifically 2. Notes are predicted based on the 2, 3 or 4 preceding notes that establish the context. A multivariate analysis of the results shows that the semantic vectors representing the notes have a multiple correlation coefficient of approximately 0.80 with their pitches.
- Abstract(参考訳): 言語モデリングで一般的に使用される word2vec 技法を、音符を文中の単語として扱うメロディーに適用することで、ピッチ情報の取得を可能にする。
本研究では,20人の子どもの歌とバッハソナタからの抜粋の2つのデータセットについて検討した。
埋め込みを定義する意味空間は非常に小さな次元であり、特に 2 である。
文脈を確立する2、3または4の先行する音符に基づいて、音符が予測される。
結果の多変量解析により、音符を表す意味ベクトルはピッチと約0.80の多重相関係数を持つことが示された。
関連論文リスト
- Pitchclass2vec: Symbolic Music Structure Segmentation with Chord
Embeddings [0.8701566919381222]
シンボリックコードアノテーションに基づく新しい楽曲セグメンテーション手法であるpitchclass2vecを提案する。
提案アルゴリズムは,Long-Short term memory(LSTM)ニューラルネットワークをベースとして,現場における記号コードアノテーションに基づく最先端技術より優れている。
論文 参考訳(メタデータ) (2023-03-24T10:23:15Z) - Syllabic Quantity Patterns as Rhythmic Features for Latin Authorship
Attribution [74.27826764855911]
我々は、ラテン散文の計算的オーサシップ属性のタスクにおいて、リズミカルな特徴を導出する基盤として、音節量を用いる。
2つの異なる機械学習手法を用いて3つの異なるデータセットを用いて実験を行い、音節量に基づくリズム特徴がラテン散文の著者の識別に有用であることを示した。
論文 参考訳(メタデータ) (2021-10-27T06:25:31Z) - Pitch-Informed Instrument Assignment Using a Deep Convolutional Network
with Multiple Kernel Shapes [22.14133334414372]
本稿では,音階楽器の割り当てを行うための深層畳み込みニューラルネットワークを提案する。
7つの楽器クラスを用いたMusicNetデータセット実験により,本手法は平均Fスコア0.904を達成可能であることが示された。
論文 参考訳(メタデータ) (2021-07-28T19:48:09Z) - Decomposing lexical and compositional syntax and semantics with deep
language models [82.81964713263483]
GPT2のような言語変換器の活性化は、音声理解中の脳活動に線形にマップすることが示されている。
本稿では,言語モデルの高次元アクティベーションを,語彙,構成,構文,意味表現の4つのクラスに分類する分類法を提案する。
その結果は2つの結果が浮かび上がった。
まず、構成表現は、語彙よりも広範な皮質ネットワークを募集し、両側の側頭、頭頂、前頭前皮質を包含する。
論文 参考訳(メタデータ) (2021-03-02T10:24:05Z) - Chord Embeddings: Analyzing What They Capture and Their Role for Next
Chord Prediction and Artist Attribute Prediction [22.591288235580876]
コード埋め込みは、音楽理論に記述された重要な関係に従属するコード間の類似性を捉えていることを示す。
最初のケーススタディでは、次のコード予測タスクにコード埋め込みを用いることで、経験豊富なミュージシャンのコードとより密に一致した予測が得られることを示した。
第2のケーススタディでは,音楽的テクスチャに関連するタスクにおいて,表現を使用することの潜在的な利点を示す。
論文 参考訳(メタデータ) (2021-02-04T22:17:17Z) - SongMASS: Automatic Song Writing with Pre-training and Alignment
Constraint [54.012194728496155]
SongMASSは、歌詞からメロディーへの生成とメロディから歌詞への生成の課題を克服するために提案されている。
マスクドシーケンスを利用して、シーケンス(質量)事前トレーニングと注意に基づくアライメントモデリングを行う。
我々は,SongMASSがベースライン法よりもはるかに高品質な歌詞とメロディを生成することを示す。
論文 参考訳(メタデータ) (2020-12-09T16:56:59Z) - SChME at SemEval-2020 Task 1: A Model Ensemble for Detecting Lexical
Semantic Change [58.87961226278285]
本稿では,SemEval-2020 Task 1における語彙意味変化の教師なし検出法であるSChMEについて述べる。
SChMEは、分布モデル(単語埋め込み)とワード周波数モデルの信号を組み合わせたモデルアンサンブルを使用し、各モデルは、その特徴に応じて単語が苦しむ確率を示す投票を行う。
論文 参考訳(メタデータ) (2020-12-02T23:56:34Z) - dMelodies: A Music Dataset for Disentanglement Learning [70.90415511736089]
我々は、研究者が様々な領域でアルゴリズムの有効性を実証するのに役立つ新しいシンボリック・ミュージック・データセットを提案する。
これはまた、音楽用に特別に設計されたアルゴリズムを評価する手段を提供する。
データセットは、遠絡学習のためのディープネットワークのトレーニングとテストに十分な大きさ(約13万データポイント)である。
論文 参考訳(メタデータ) (2020-07-29T19:20:07Z) - Musical Word Embedding: Bridging the Gap between Listening Contexts and
Music [5.89179309980335]
我々は、一般的なテキストデータと音楽固有のデータの組み合わせを用いて、単語の分散表現を訓練する。
聴取コンテキストと楽曲の関連性の観点からシステムの評価を行った。
論文 参考訳(メタデータ) (2020-07-23T06:42:45Z) - Self-Supervised Learning of Context-Aware Pitch Prosody Representations [3.2489082010225485]
短歌声帯の文脈表現を基本周波数から暗黙的に学習する方法を示す。
これら2つの文脈の擬似タスク学習を活用する3つの自己教師型ディープラーニングパラダイムを提案する。
その結果,従来の統計的輪郭特性と比較して,文脈表現は下流の分類を最大15%向上させることができることがわかった。
論文 参考訳(メタデータ) (2020-07-17T15:41:00Z) - Music Gesture for Visual Sound Separation [121.36275456396075]
ミュージック・ジェスチャ(Music Gesture)は、音楽演奏時の演奏者の身体と指の動きを明示的にモデル化するキーポイントに基づく構造化表現である。
まず、コンテキスト対応グラフネットワークを用いて、視覚的コンテキストと身体力学を統合し、その後、身体の動きと対応する音声信号とを関連付けるために、音声-視覚融合モデルを適用する。
論文 参考訳(メタデータ) (2020-04-20T17:53:46Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。