論文の概要: And what if two musical versions don't share melody, harmony, rhythm, or
lyrics ?
- arxiv url: http://arxiv.org/abs/2210.01256v1
- Date: Mon, 3 Oct 2022 22:33:14 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-05 15:54:04.111749
- Title: And what if two musical versions don't share melody, harmony, rhythm, or
lyrics ?
- Title(参考訳): 2つの音楽バージョンがメロディ、ハーモニー、リズム、歌詞を共有しないとしたら?
- Authors: Mathilde Abrassart and Guillaume Doras
- Abstract要約: 歌詞の近似表現は、バージョンと非バージョンを識別する効率的なプロキシであることを示す。
次に、これらの機能が相互に補完し、公開された2つのデータセット上で新しい最先端のパフォーマンスを得る方法について説明する。
- 参考スコア(独自算出の注目度): 2.4366811507669124
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Version identification (VI) has seen substantial progress over the past few
years. On the one hand, the introduction of the metric learning paradigm has
favored the emergence of scalable yet accurate VI systems. On the other hand,
using features focusing on specific aspects of musical pieces, such as melody,
harmony, or lyrics, yielded interpretable and promising performances. In this
work, we build upon these recent advances and propose a metric learning-based
system systematically leveraging four dimensions commonly admitted to convey
musical similarity between versions: melodic line, harmonic structure, rhythmic
patterns, and lyrics. We describe our deliberately simple model architecture,
and we show in particular that an approximated representation of the lyrics is
an efficient proxy to discriminate between versions and non-versions. We then
describe how these features complement each other and yield new
state-of-the-art performances on two publicly available datasets. We finally
suggest that a VI system using a combination of melodic, harmonic, rhythmic and
lyrics features could theoretically reach the optimal performances obtainable
on these datasets.
- Abstract(参考訳): バージョン識別(VI)はここ数年で大きく進歩している。
一方で、メトリック学習パラダイムの導入は、スケーラブルで正確なviシステムの出現を好んだ。
一方、メロディ、ハーモニー、歌詞などの楽曲の特定の側面に焦点を当てた特徴を用いることで、解釈可能で有望な演奏が生み出された。
本研究は,これらの最近の進歩を基盤として,メロディックライン,ハーモニック構造,リズムパターン,歌詞の4次元を体系的に活用したメートル法学習システムを提案する。
本稿では,意図的なモデルアーキテクチャを記述し,特に歌詞の近似表現が,バージョンと非バージョンを識別する効率的なプロキシであることを示す。
次に、これらの機能が相互に補完し、公開された2つのデータセット上で新しい最先端のパフォーマンスを得る方法について説明する。
最後に,メロディ,ハーモニック,リズミカル,歌詞機能の組み合わせを用いたviシステムは,理論的にこれらのデータセットで得られる最適な性能に到達可能であることを示唆する。
関連論文リスト
- Graph-based Polyphonic Multitrack Music Generation [9.701208207491879]
本稿では,音楽のための新しいグラフ表現と,音楽グラフの構造と内容を別々に生成する深部変分オートエンコーダを提案する。
音楽グラフの構造と内容を分離することにより、特定のタイミングでどの楽器が演奏されているかを指定することで条件生成が可能となる。
論文 参考訳(メタデータ) (2023-07-27T15:18:50Z) - Unsupervised Melody-to-Lyric Generation [91.29447272400826]
本稿では,メロディ・歌詞データを学習することなく高品質な歌詞を生成する手法を提案する。
我々は、メロディと歌詞のセグメンテーションとリズムアライメントを利用して、与えられたメロディをデコード制約にコンパイルする。
我々のモデルは、強いベースラインよりもオントピー的、歌いやすく、知性があり、一貫性のある高品質な歌詞を生成することができる。
論文 参考訳(メタデータ) (2023-05-30T17:20:25Z) - Re-creation of Creations: A New Paradigm for Lyric-to-Melody Generation [158.54649047794794]
Re-creation of Creations (ROC)は、歌詞からメロディ生成のための新しいパラダイムである。
ROCは、Lyric-to-Meody生成において、優れたLyric-Meody特徴アライメントを実現する。
論文 参考訳(メタデータ) (2022-08-11T08:44:47Z) - Towards Context-Aware Neural Performance-Score Synchronisation [2.0305676256390934]
音楽の同期は、音楽の複数の表現を統一的にナビゲートする手段を提供する。
従来の同期手法は知識駆動と性能分析のアプローチを用いてアライメントを計算する。
このPhDは、データ駆動型コンテクスト対応アライメントアプローチの提案により、パフォーマンススコア同期の研究をさらに進める。
論文 参考訳(メタデータ) (2022-05-31T16:45:25Z) - Quantized GAN for Complex Music Generation from Dance Videos [48.196705493763986]
D2M-GAN(Dance2Music-GAN, D2M-GAN, D2M-GAN)は、ダンスビデオに条件付けされた楽曲のサンプルを生成する新しいマルチモーダルフレームワークである。
提案フレームワークは,ダンスビデオフレームと人体の動きを入力とし,対応する入力に付随する音楽サンプルを生成することを学習する。
論文 参考訳(メタデータ) (2022-04-01T17:53:39Z) - A-Muze-Net: Music Generation by Composing the Harmony based on the
Generated Melody [91.22679787578438]
ピアノ音楽のMidiファイルを生成する方法を提案する。
この方法は、左手を右手に固定した2つのネットワークを用いて、左右の手をモデル化する。
ミディは音階に不変な方法で表現され、メロディはハーモニーを調和させる目的で表現される。
論文 参考訳(メタデータ) (2021-11-25T09:45:53Z) - Melody-Conditioned Lyrics Generation with SeqGANs [81.2302502902865]
本稿では,SeqGAN(Sequence Generative Adversarial Networks)に基づく,エンドツーエンドのメロディ条件付き歌詞生成システムを提案する。
入力条件が評価指標に悪影響を及ぼすことなく,ネットワークがより有意義な結果が得られることを示す。
論文 参考訳(メタデータ) (2020-10-28T02:35:40Z) - Music Gesture for Visual Sound Separation [121.36275456396075]
ミュージック・ジェスチャ(Music Gesture)は、音楽演奏時の演奏者の身体と指の動きを明示的にモデル化するキーポイントに基づく構造化表現である。
まず、コンテキスト対応グラフネットワークを用いて、視覚的コンテキストと身体力学を統合し、その後、身体の動きと対応する音声信号とを関連付けるために、音声-視覚融合モデルを適用する。
論文 参考訳(メタデータ) (2020-04-20T17:53:46Z) - Continuous Melody Generation via Disentangled Short-Term Representations
and Structural Conditions [14.786601824794369]
ユーザが指定したシンボリックシナリオと過去の音楽コンテキストを組み合わせることで,メロディーを構成するモデルを提案する。
本モデルでは,8拍子の音符列を基本単位として長い旋律を生成でき,一貫したリズムパターン構造を他の特定の歌と共有することができる。
その結果,本モデルが生成する音楽は,顕著な繰り返し構造,豊かな動機,安定したリズムパターンを有する傾向が示唆された。
論文 参考訳(メタデータ) (2020-02-05T06:23:44Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。