論文の概要: MIDI-Draw: Sketching to Control Melody Generation
- arxiv url: http://arxiv.org/abs/2305.11605v1
- Date: Fri, 19 May 2023 11:31:33 GMT
- ステータス: 処理完了
- システム内更新日: 2023-05-22 14:48:16.427509
- Title: MIDI-Draw: Sketching to Control Melody Generation
- Title(参考訳): MIDI-Draw:メロディ生成を制御するスケッチ
- Authors: Tashi Namgyal, Peter Flach, Raul Santos-Rodriguez
- Abstract要約: 本稿では,旋律輪郭による音階入力表現を抽象化するメロディ描画システムについて述べる。
目的は、音符がメロディカルにどのように適合するかを事前に知ることなく、ユーザーが音楽の意図を表現できるようにすることである。
- 参考スコア(独自算出の注目度): 5.8010446129208155
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: We describe a proof-of-principle implementation of a system for drawing
melodies that abstracts away from a note-level input representation via melodic
contours. The aim is to allow users to express their musical intentions without
requiring prior knowledge of how notes fit together melodiously. Current
approaches to controllable melody generation often require users to choose
parameters that are static across a whole sequence, via buttons or sliders. In
contrast, our method allows users to quickly specify how parameters should
change over time by drawing a contour.
- Abstract(参考訳): 本稿では,旋律輪郭による音階入力表現を抽象化するメロディ描画システムの実装について述べる。
その目的は、ユーザが音楽の意図を事前に理解することなく表現できるようにすることだ。
メロディ生成を制御する現在のアプローチでは、ユーザはボタンやスライダを通じて、シーケンス全体にわたって静的なパラメータを選択する必要がある。
対照的に,提案手法では輪郭を描くことで,時間とともにパラメータがどのように変化するべきかを素早く指定できる。
関連論文リスト
- End-to-end Piano Performance-MIDI to Score Conversion with Transformers [26.900974153235456]
実世界のピアノ演奏-MIDIファイルから直接詳細な楽譜を構築するエンド・ツー・エンドのディープ・ラーニング・アプローチを提案する。
シンボリック・ミュージック・データのための新しいトークン化表現を備えたモダン・トランスフォーマー・ベース・アーキテクチャを提案する。
また,本手法は,演奏データからトリルマークやステム方向などの表記法の詳細を直接予測する最初の方法でもある。
論文 参考訳(メタデータ) (2024-09-30T20:11:37Z) - Emotion-Driven Melody Harmonization via Melodic Variation and Functional Representation [16.790582113573453]
感情駆動のメロディは、望ましい感情を伝えるために、1つのメロディのための多様なハーモニーを生成することを目的としている。
以前の研究では、異なるコードで同じメロディを調和させることで、リードシートの知覚的価値を変えることが困難であった。
本稿では,シンボリック音楽の新たな機能表現を提案する。
論文 参考訳(メタデータ) (2024-07-29T17:05:12Z) - Accompanied Singing Voice Synthesis with Fully Text-controlled Melody [61.147446955297625]
Text-to-song (TTSong) は、歌声の伴奏を合成する音楽生成タスクである。
完全テキスト制御されたメロディで高品質な曲を生成する最初のTTSongモデルであるMelodyLMを提案する。
論文 参考訳(メタデータ) (2024-07-02T08:23:38Z) - Multi-Track Timeline Control for Text-Driven 3D Human Motion Generation [71.08922726494842]
テキスト駆動動作合成におけるタイムライン制御の問題を紹介する。
ユーザーは単一のプロンプトの代わりに、重複する可能性のある時間間隔に整理された複数のプロンプトのマルチトラックタイムラインを指定することができる。
マルチトラックタイムラインから合成アニメーションを生成するための新しいテスト時間復調手法を提案する。
論文 参考訳(メタデータ) (2024-01-16T18:39:15Z) - Readout Guidance: Learning Control from Diffusion Features [96.22155562120231]
本稿では,学習信号を用いたテキスト・画像拡散モデル制御手法であるReadout Guidanceを提案する。
Readout Guidanceはリードアウトヘッドを使用し、トレーニング済みの凍結拡散モデルの特徴から信号を取り出すために訓練された軽量ネットワークである。
これらの読み出しは、ポーズ、深さ、エッジなどのシングルイメージ特性や、対応性や外観類似性といった複数の画像に関連する高次特性を符号化することができる。
論文 参考訳(メタデータ) (2023-12-04T18:59:32Z) - MelodyGLM: Multi-task Pre-training for Symbolic Melody Generation [39.892059799407434]
MelodyGLMは長期構造を持つメロディを生成するためのマルチタスク事前学習フレームワークである。
我々は,0.4百万以上のメロディを含む大規模な記号的メロディデータセットMelodyNetを構築した。
論文 参考訳(メタデータ) (2023-09-19T16:34:24Z) - RMSSinger: Realistic-Music-Score based Singing Voice Synthesis [56.51475521778443]
RMS-SVSは、異なる音符タイプでリアル音楽のスコアを与えられた高品質な歌声を生成することを目的としている。
RMS-SVS方式であるRMSSingerを提案する。
RMSSingerでは,時間を要する音素の持続時間アノテーションと複雑な音素レベルのメルノートアライメントを避けるために,単語レベルのモデリングを導入する。
論文 参考訳(メタデータ) (2023-05-18T03:57:51Z) - MeloForm: Generating Melody with Musical Form based on Expert Systems
and Neural Networks [146.59245563763065]
MeloFormは、エキスパートシステムとニューラルネットワークを使用して、音楽形式でメロディを生成するシステムである。
詩やコーラス形式、ロンド形式、変奏形式、ソナタ形式など、様々な形式をサポートすることができる。
論文 参考訳(メタデータ) (2022-08-30T15:44:15Z) - A-Muze-Net: Music Generation by Composing the Harmony based on the
Generated Melody [91.22679787578438]
ピアノ音楽のMidiファイルを生成する方法を提案する。
この方法は、左手を右手に固定した2つのネットワークを用いて、左右の手をモデル化する。
ミディは音階に不変な方法で表現され、メロディはハーモニーを調和させる目的で表現される。
論文 参考訳(メタデータ) (2021-11-25T09:45:53Z) - Music SketchNet: Controllable Music Generation via Factorized
Representations of Pitch and Rhythm [42.694266687511906]
Music SketchNetは、ユーザーが自動音楽生成を導く部分的な音楽アイデアを指定できるニューラルネットワークフレームワークである。
我々は、周囲の環境に配慮した不完全なモノフォニック音楽作品の欠落対策の作成に焦点をあてる。
生成プロセス中にユーザ指定スニペットをうまく組み込むことができることを示す。
論文 参考訳(メタデータ) (2020-08-04T02:49:57Z) - Continuous Melody Generation via Disentangled Short-Term Representations
and Structural Conditions [14.786601824794369]
ユーザが指定したシンボリックシナリオと過去の音楽コンテキストを組み合わせることで,メロディーを構成するモデルを提案する。
本モデルでは,8拍子の音符列を基本単位として長い旋律を生成でき,一貫したリズムパターン構造を他の特定の歌と共有することができる。
その結果,本モデルが生成する音楽は,顕著な繰り返し構造,豊かな動機,安定したリズムパターンを有する傾向が示唆された。
論文 参考訳(メタデータ) (2020-02-05T06:23:44Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。