論文の概要: Signal-domain representation of symbolic music for learning embedding
spaces
- arxiv url: http://arxiv.org/abs/2109.03454v1
- Date: Wed, 8 Sep 2021 06:36:02 GMT
- ステータス: 処理完了
- システム内更新日: 2021-09-09 13:31:04.679492
- Title: Signal-domain representation of symbolic music for learning embedding
spaces
- Title(参考訳): 埋め込み空間学習のための記号音楽の信号領域表現
- Authors: Mathieu Prang (IRCAM), Philippe Esling
- Abstract要約: 本稿では,ポリフォニック楽譜を連続信号に変換するシンボリック音楽データの新しい表現を提案する。
信号ライクな表現は、より良い再構築と不整合性をもたらすことを示す。
- 参考スコア(独自算出の注目度): 2.28438857884398
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: A key aspect of machine learning models lies in their ability to learn
efficient intermediate features. However, the input representation plays a
crucial role in this process, and polyphonic musical scores remain a
particularly complex type of information. In this paper, we introduce a novel
representation of symbolic music data, which transforms a polyphonic score into
a continuous signal. We evaluate the ability to learn meaningful features from
this representation from a musical point of view. Hence, we introduce an
evaluation method relying on principled generation of synthetic data. Finally,
to test our proposed representation we conduct an extensive benchmark against
recent polyphonic symbolic representations. We show that our signal-like
representation leads to better reconstruction and disentangled features. This
improvement is reflected in the metric properties and in the generation ability
of the space learned from our signal-like representation according to music
theory properties.
- Abstract(参考訳): 機械学習モデルの重要な側面は、効率的な中間機能を学ぶ能力にある。
しかし、この過程において入力表現は重要な役割を担い、ポリフォニック楽譜は特に複雑な種類の情報である。
本稿では,ポリフォニック楽譜を連続信号に変換するシンボリック音楽データの新しい表現を提案する。
この表現から有意義な特徴を音楽的な観点から学習する能力を評価する。
そこで本研究では,合成データの原理的生成に基づく評価手法を提案する。
最後に、提案する表現をテストするために、最近のポリフォニックシンボリック表現に対する広範なベンチマークを行う。
信号ライクな表現は、より良い再構築と不整合性をもたらすことを示す。
この改善は、音楽理論の特性に基づいて、信号のような表現から学習した空間の計量特性と生成能力に反映される。
関連論文リスト
- Impact of time and note duration tokenizations on deep learning symbolic
music modeling [0.0]
共通トークン化手法を解析し、時間と音符の持続時間表現を実験する。
明示的な情報がタスクによってより良い結果をもたらすことを実証する。
論文 参考訳(メタデータ) (2023-10-12T16:56:37Z) - Discrete, compositional, and symbolic representations through attractor
dynamics [61.58042831010077]
記号空間におけるインポーティング構造は、リッチな感覚入力のアトラクタ支持表現空間において構成性をもたらすことを示す。
我々のモデルは、意識経験において重要な役割を果たしていると考えられる情報のボトルネックの過程を示す。
論文 参考訳(メタデータ) (2023-10-03T05:40:56Z) - A Domain-Knowledge-Inspired Music Embedding Space and a Novel Attention
Mechanism for Symbolic Music Modeling [0.0]
バイアス調整された正弦波符号化に基づく記号音楽のための基本音楽埋め込み(FME)を提案する。
提案するFMEを利用して, 相対指数, ピッチ, オンセット埋め込みに基づく新しいアテンション機構を提案する。
RIPO変圧器は最先端の変圧器よりも優れた性能を示す。
論文 参考訳(メタデータ) (2022-12-02T05:04:31Z) - Cadence Detection in Symbolic Classical Music using Graph Neural
Networks [7.817685358710508]
本稿では,シンボルスコアのグラフ表現を中間的手段として提示し,ケイデンス検出課題を解決する。
グラフ畳み込みネットワークを用いた不均衡ノード分類問題としてケイデンス検出にアプローチする。
実験の結果,グラフ畳み込みは,非局所的コンテキストを符号化する特殊な特徴を考案する必要がなく,ケイデンス検出を支援する非局所的特徴を学習できることが示唆された。
論文 参考訳(メタデータ) (2022-08-31T12:39:57Z) - Towards Disentangled Speech Representations [65.7834494783044]
本研究では, ASR と TTS の合同モデリングに基づく表現学習タスクを構築する。
本研究は,その部分の音声信号と,その部分の音声信号とをアンタングルする音声表現を学習することを目的とする。
我々は,これらの特性をトレーニング中に強化することにより,WERを平均24.5%向上させることを示す。
論文 参考訳(メタデータ) (2022-08-28T10:03:55Z) - Deep Neural Convolutive Matrix Factorization for Articulatory
Representation Decomposition [48.56414496900755]
この研究は、コンボリューティブスパース行列分解のニューラル実装を用いて、調音データを解釈可能なジェスチャーとジェスチャースコアに分解する。
音素認識実験も実施され、ジェスチャースコアが実際に音韻情報のコード化に成功していることが示された。
論文 参考訳(メタデータ) (2022-04-01T14:25:19Z) - Score Transformer: Generating Musical Score from Note-level
Representation [2.3554584457413483]
音符レベルの表現を適切な音楽表記に変換するためにトランスフォーマーモデルを訓練する。
また、モデルを扱うための効果的な表記レベルトークン表現についても検討する。
論文 参考訳(メタデータ) (2021-12-01T09:08:01Z) - Vector-Quantized Timbre Representation [53.828476137089325]
本稿では, スペクトル特性の近似分解を生成的特徴の集合で学習することにより, 個々の音色をより柔軟に合成することを目的とする。
音量分布の量子化表現を学習するために、大音量から切り離された離散潜在空間を持つオートエンコーダを導入する。
オーケストラ楽器と歌唱音声間の音声の翻訳結果と、ボーカルの模倣音から楽器への変換結果について詳述する。
論文 参考訳(メタデータ) (2020-07-13T12:35:45Z) - Embeddings as representation for symbolic music [0.0]
音楽の意味を含む方法で音楽のエンコードを可能にする表現技法は、コンピュータ音楽タスクのために訓練されたモデルの結果を改善する。
本稿では,データセットの3つの異なるバリエーションから音符を表現し,モデルが有用な音楽パターンを捉えることができるかどうかを解析するための埋め込み実験を行う。
論文 参考訳(メタデータ) (2020-05-19T13:04:02Z) - Music Gesture for Visual Sound Separation [121.36275456396075]
ミュージック・ジェスチャ(Music Gesture)は、音楽演奏時の演奏者の身体と指の動きを明示的にモデル化するキーポイントに基づく構造化表現である。
まず、コンテキスト対応グラフネットワークを用いて、視覚的コンテキストと身体力学を統合し、その後、身体の動きと対応する音声信号とを関連付けるために、音声-視覚融合モデルを適用する。
論文 参考訳(メタデータ) (2020-04-20T17:53:46Z) - Audio Impairment Recognition Using a Correlation-Based Feature
Representation [85.08880949780894]
本稿では,特徴対の相関に基づく手作り特徴の新しい表現を提案する。
実験段階において,コンパクトな特徴次元と計算速度の向上の観点から,優れた性能を示す。
論文 参考訳(メタデータ) (2020-03-22T13:34:37Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。