論文の概要: LoopNet: Musical Loop Synthesis Conditioned On Intuitive Musical
Parameters
- arxiv url: http://arxiv.org/abs/2105.10371v1
- Date: Fri, 21 May 2021 14:24:34 GMT
- ステータス: 処理完了
- システム内更新日: 2021-05-25 03:08:47.358244
- Title: LoopNet: Musical Loop Synthesis Conditioned On Intuitive Musical
Parameters
- Title(参考訳): loopnet:直感的な音楽パラメータに基づく音楽ループ合成
- Authors: Pritish Chandna, Ant\'onio Ramires, Xavier Serra, Emilia G\'omez
- Abstract要約: LoopNetは直感的なパラメータに条件付きループを生成するためのフィードフォワード生成モデルである。
我々は,音楽情報検索(MIR)モデルと公開ループサンプルの大量収集を活用している。
- 参考スコア(独自算出の注目度): 12.72202888016628
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Loops, seamlessly repeatable musical segments, are a cornerstone of modern
music production. Contemporary artists often mix and match various sampled or
pre-recorded loops based on musical criteria such as rhythm, harmony and
timbral texture to create compositions. Taking such criteria into account, we
present LoopNet, a feed-forward generative model for creating loops conditioned
on intuitive parameters. We leverage Music Information Retrieval (MIR) models
as well as a large collection of public loop samples in our study and use the
Wave-U-Net architecture to map control parameters to audio. We also evaluate
the quality of the generated audio and propose intuitive controls for composers
to map the ideas in their minds to an audio loop.
- Abstract(参考訳): ループはシームレスに繰り返し可能な音楽セグメントであり、現代の音楽制作の基盤となっている。
現代のアーティストは、リズム、ハーモニー、ティンブラルのテクスチャなどの音楽的基準に基づいて、様々なサンプルや録音済みのループを混ぜ合わせて作曲することが多い。
このような基準を考慮に入れ、直観的パラメータに条件付きループを生成するフィードフォワード生成モデルであるLoopNetを提案する。
我々は、音楽情報検索(MIR)モデルと、研究における多数の公開ループサンプルを活用し、Wave-U-Netアーキテクチャを用いて制御パラメータをオーディオにマッピングする。
また、生成した音声の品質を評価し、作曲家が思考中のアイデアを音声ループにマッピングするための直感的な制御を提案する。
関連論文リスト
- MusicFlow: Cascaded Flow Matching for Text Guided Music Generation [53.63948108922333]
MusicFlowは、フローマッチングに基づくケースドテキストから音楽への生成モデルである。
学習目的としてマスク予測を活用することで,音楽の充実や継続といった他のタスクにモデルを一般化することができる。
論文 参考訳(メタデータ) (2024-10-27T15:35:41Z) - MuVi: Video-to-Music Generation with Semantic Alignment and Rhythmic Synchronization [52.498942604622165]
本稿では,ビデオコンテンツに合わせた音楽を生成するためのフレームワークであるMuViについて述べる。
MuViは、特別に設計された視覚適応器を通じて映像コンテンツを分析し、文脈的および時間的に関係のある特徴を抽出する。
音声品質と時間同期の両方において, MuVi が優れた性能を示すことを示す。
論文 参考訳(メタデータ) (2024-10-16T18:44:56Z) - MusiConGen: Rhythm and Chord Control for Transformer-Based Text-to-Music Generation [19.878013881045817]
MusiConGenは、一時条件付きトランスフォーマーベースのテキスト-音楽モデルである。
条件信号として自動的に抽出されたリズムとコードを統合する。
MusiConGenは,特定の条件に整合したリアルなバックトラック音楽を生成することができることを示す。
論文 参考訳(メタデータ) (2024-07-21T05:27:53Z) - Simple and Controllable Music Generation [94.61958781346176]
MusicGenは単一の言語モデル(LM)であり、圧縮された離散的な音楽表現、すなわちトークンの複数のストリームで動作する。
以前の作業とは異なり、MusicGenはシングルステージのトランスフォーマーLMと効率的なトークンインターリービングパターンで構成されている。
論文 参考訳(メタデータ) (2023-06-08T15:31:05Z) - GETMusic: Generating Any Music Tracks with a Unified Representation and
Diffusion Framework [58.64512825534638]
シンボリック・ミュージック・ジェネレーションは、ユーザーが音楽を作るのに役立つ音符を作成することを目的としている。
私たちは「GETMusic」と呼ばれるフレームワークを紹介します。「GET'」は「GEnerate Music Tracks」の略です。
GETScoreは、音符をトークンとして表現し、2D構造でトークンを整理する。
提案する表現は,非自己回帰生成モデルと組み合わせて,任意のソース・ターゲットトラックの組み合わせでGETMusicに音楽を生成する。
論文 参考訳(メタデータ) (2023-05-18T09:53:23Z) - Long-Term Rhythmic Video Soundtracker [37.082768654951465]
我々は、長期条件波形を合成する新しいフレームワーク、LORIS(Long-Term Rhythmic Video Soundtracker)を提案する。
モデルの適用性をダンスからフロアエクササイズやフィギュアスケートといった複数のスポーツシナリオに拡張する。
我々のモデルは、最先端の音楽的品質とリズム対応を備えた長期的なサウンドトラックを生成する。
論文 参考訳(メタデータ) (2023-05-02T10:58:29Z) - Quantized GAN for Complex Music Generation from Dance Videos [48.196705493763986]
D2M-GAN(Dance2Music-GAN, D2M-GAN, D2M-GAN)は、ダンスビデオに条件付けされた楽曲のサンプルを生成する新しいマルチモーダルフレームワークである。
提案フレームワークは,ダンスビデオフレームと人体の動きを入力とし,対応する入力に付随する音楽サンプルを生成することを学習する。
論文 参考訳(メタデータ) (2022-04-01T17:53:39Z) - CycleDRUMS: Automatic Drum Arrangement For Bass Lines Using CycleGAN [12.93891163150604]
CycleDRUMSはベースラインを与えられたドラムを生成する新しい方法である。
バスの波形をメル・スペクトログラムに変換した後、ビートに追従するオリジナルドラムを自動的に生成することができる。
論文 参考訳(メタデータ) (2021-04-01T09:17:48Z) - A framework to compare music generative models using automatic
evaluation metrics extended to rhythm [69.2737664640826]
本稿では,前回の研究で提示された,リズムを考慮せず,設計決定を下すための枠組みを取り上げ,単音素音楽作成における2つのrnnメモリセルの性能評価のためにリズムサポートを付加した。
モデルでは,音素変換の処理を考慮し,リズムサポートを付加した幾何学に基づく自動計測値を用いて,生成した楽曲の質を評価する。
論文 参考訳(メタデータ) (2021-01-19T15:04:46Z) - Music SketchNet: Controllable Music Generation via Factorized
Representations of Pitch and Rhythm [42.694266687511906]
Music SketchNetは、ユーザーが自動音楽生成を導く部分的な音楽アイデアを指定できるニューラルネットワークフレームワークである。
我々は、周囲の環境に配慮した不完全なモノフォニック音楽作品の欠落対策の作成に焦点をあてる。
生成プロセス中にユーザ指定スニペットをうまく組み込むことができることを示す。
論文 参考訳(メタデータ) (2020-08-04T02:49:57Z) - Continuous Melody Generation via Disentangled Short-Term Representations
and Structural Conditions [14.786601824794369]
ユーザが指定したシンボリックシナリオと過去の音楽コンテキストを組み合わせることで,メロディーを構成するモデルを提案する。
本モデルでは,8拍子の音符列を基本単位として長い旋律を生成でき,一貫したリズムパターン構造を他の特定の歌と共有することができる。
その結果,本モデルが生成する音楽は,顕著な繰り返し構造,豊かな動機,安定したリズムパターンを有する傾向が示唆された。
論文 参考訳(メタデータ) (2020-02-05T06:23:44Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。