論文の概要: The Chamber Ensemble Generator: Limitless High-Quality MIR Data via
Generative Modeling
- arxiv url: http://arxiv.org/abs/2209.14458v1
- Date: Wed, 28 Sep 2022 22:55:15 GMT
- ステータス: 処理完了
- システム内更新日: 2022-09-30 18:22:36.001598
- Title: The Chamber Ensemble Generator: Limitless High-Quality MIR Data via
Generative Modeling
- Title(参考訳): チャンバーアンサンブル生成器:生成モデルによる限界なし高品質ミールデータ
- Authors: Yusong Wu, Josh Gardner, Ethan Manilow, Ian Simon, Curtis Hawthorne,
Jesse Engel
- Abstract要約: 本稿では,リッチアノテーションを付加した無制限のリアル・コーラル・ミュージックを制作できるシステムについて述べる。
我々は4つの異なる室内アンサンブルから大規模な合唱曲のデータセットを生成する。
MIRコミュニティにおける今後の作業のためのオープンソース基盤として,システムとデータセットの両方をリリースする。
- 参考スコア(独自算出の注目度): 6.009299746966725
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Data is the lifeblood of modern machine learning systems, including for those
in Music Information Retrieval (MIR). However, MIR has long been mired by small
datasets and unreliable labels. In this work, we propose to break this
bottleneck using generative modeling. By pipelining a generative model of notes
(Coconet trained on Bach Chorales) with a structured synthesis model of chamber
ensembles (MIDI-DDSP trained on URMP), we demonstrate a system capable of
producing unlimited amounts of realistic chorale music with rich annotations
including mixes, stems, MIDI, note-level performance attributes (staccato,
vibrato, etc.), and even fine-grained synthesis parameters (pitch, amplitude,
etc.). We call this system the Chamber Ensemble Generator (CEG), and use it to
generate a large dataset of chorales from four different chamber ensembles
(CocoChorales). We demonstrate that data generated using our approach improves
state-of-the-art models for music transcription and source separation, and we
release both the system and the dataset as an open-source foundation for future
work in the MIR community.
- Abstract(参考訳): データ(Data)は、音楽情報検索(MIR)を含む現代の機械学習システムのライフサイクルである。
しかし、MIRは長い間、小さなデータセットと信頼性の低いラベルによって修正されてきた。
本稿では,生成モデルを用いてこのボトルネックを解消することを提案する。
チャンバーアンサンブル(URMPで訓練されたMIDI-DDSP)の構造化合成モデルを用いて音符生成モデル(バッハ合唱団で訓練されたココネ)をパイプライン化することにより、ミックス、ステム、MIDI、ノートレベルの演奏特性(スタッカト、ビブラートなど)、さらには微粒な合成パラメータ(ピッチ、振幅など)を多量に生成できるシステムを実証する。
このシステムをCEG(Curber Ensemble Generator)と呼び、それを4つの異なる室内アンサンブル(CocoChorales)から大きなコラールのデータセットを生成する。
このアプローチで生成されたデータは,音楽の書き起こしとソース分離の最先端モデルを改善し,mirコミュニティにおける今後の作業のためのオープンソース基盤として,システムとデータセットの両方をリリースする。
関連論文リスト
- Performance Conditioning for Diffusion-Based Multi-Instrument Music
Synthesis [15.670399197114012]
本稿では,特定の性能と記録環境に生成モデルを条件付け,多施設合成の制御を強化することを提案する。
パフォーマンスコンディショニング(Performance Conditioning)とは、特定の演奏から採った特定の楽器のスタイルと音色で音楽を合成する生成モデルを示すツールである。
試作機は,多種多様な楽器と最先端のFADリアリズムスコアを用いた未計算性能を用いて評価した。
論文 参考訳(メタデータ) (2023-09-21T17:44:57Z) - Real-time Percussive Technique Recognition and Embedding Learning for
the Acoustic Guitar [2.5291326778025143]
リアルタイム音楽情報検索(RT-MIR)は,従来の音響機器の能力を高める可能性が大きい。
本研究では,アコースティックギターとギターボディのパーカッションをブレンドしたパーカッシブフィンガースタイルの強化を目的としたRT-MIR技術を開発した。
本稿では,畳み込みニューラルネットワーク(CNN)と変分オートエンコーダ(VAE)に基づくリアルタイムギターボディパーカッション認識と埋め込み学習技術について述べる。
論文 参考訳(メタデータ) (2023-07-13T10:48:29Z) - Simple and Controllable Music Generation [94.61958781346176]
MusicGenは単一の言語モデル(LM)であり、圧縮された離散的な音楽表現、すなわちトークンの複数のストリームで動作する。
以前の作業とは異なり、MusicGenはシングルステージのトランスフォーマーLMと効率的なトークンインターリービングパターンで構成されている。
論文 参考訳(メタデータ) (2023-06-08T15:31:05Z) - TSGM: A Flexible Framework for Generative Modeling of Synthetic Time
Series [79.64785804590821]
時系列データは、研究者と産業組織間のデータの共有を妨げるため、しばしば不足または非常に敏感である。
本稿では,合成時系列の生成モデリングのためのオープンソースフレームワークである時系列生成モデリング(TSGM)を紹介する。
論文 参考訳(メタデータ) (2023-05-19T10:11:21Z) - Learning with MISELBO: The Mixture Cookbook [62.75516608080322]
本稿では,VampPriorとPixelCNNデコーダネットワークを用いて,フローベース階層型変分オートエンコーダ(VAE)の正規化のための変分近似を初めて提案する。
我々は、この協調行動について、VIと適応的重要度サンプリングの新たな関係を描いて説明する。
我々は、MNISTおよびFashionMNISTデータセット上の負のログ類似度の観点から、VAEアーキテクチャの最先端結果を得る。
論文 参考訳(メタデータ) (2022-09-30T15:01:35Z) - Sound Model Factory: An Integrated System Architecture for Generative
Audio Modelling [4.193940401637568]
2つの異なるニューラルネットワークアーキテクチャを中心に構築されたデータ駆動型音響モデル設計のための新しいシステムを提案する。
本システムの目的は、(a)モデルが合成できるべき音の範囲と、(b)その音の空間をナビゲートするためのパラメトリック制御の仕様を与えられた、インタラクティブに制御可能な音モデルを生成することである。
論文 参考訳(メタデータ) (2022-06-27T07:10:22Z) - Symphony Generation with Permutation Invariant Language Model [57.75739773758614]
変分不変言語モデルに基づくシンフォニーネットという記号的シンフォニー音楽生成ソリューションを提案する。
シンフォニートークンの超長いシーケンスをモデル化するためのバックボーンとして、新しいトランスフォーマーデコーダアーキテクチャが導入された。
実験結果から,提案手法は人間の構成と比べ,コヒーレント,新規,複雑,調和的な交響曲を生成できることが示唆された。
論文 参考訳(メタデータ) (2022-05-10T13:08:49Z) - Conditional Drums Generation using Compound Word Representations [4.435094091999926]
複合語表現にインスパイアされた新しいデータ符号化方式を用いて、条件付きドラム生成の課題に取り組む。
本稿では,双方向長短期メモリ(BiLSTM)が条件パラメータに関する情報を受信するシーケンス・ツー・シーケンスアーキテクチャを提案する。
比較的グローバルな注目を集めたトランスフォーマーベースのデコーダが生成したドラムシーケンスを生成する。
論文 参考訳(メタデータ) (2022-02-09T13:49:27Z) - Merlion: A Machine Learning Library for Time Series [73.46386700728577]
Merlionは時系列のためのオープンソースの機械学習ライブラリである。
モデルの統一インターフェースと、異常検出と予測のためのデータセットを備えている。
Merlionはまた、本番環境でのモデルのライブデプロイメントと再トレーニングをシミュレートするユニークな評価フレームワークも提供する。
論文 参考訳(メタデータ) (2021-09-20T02:03:43Z) - SrvfNet: A Generative Network for Unsupervised Multiple Diffeomorphic
Shape Alignment [6.404122934568859]
SrvfNetは、関数データの大規模なコレクションを複数アライメントする、ジェネレーティブなディープラーニングフレームワークである。
提案するフレームワークは完全に教師なしであり,事前定義されたテンプレートに整合すると同時に,データから最適なテンプレートを共同で予測することができる。
我々は, 磁気共鳴画像(MRI)データからの拡散プロファイルだけでなく, 合成データ上で検証することで, フレームワークの強度を実証する。
論文 参考訳(メタデータ) (2021-04-27T19:49:46Z) - Multitask learning for instrument activation aware music source
separation [83.30944624666839]
本稿では,楽器のアクティベーション情報を用いて音源分離性能を向上させるための新しいマルチタスク構造を提案する。
MUSDBデータセットに含まれる3つの楽器よりも現実的なシナリオである6つの独立した楽器について,本システムについて検討する。
その結果,提案したマルチタスクモデルは,Mixing SecretsとMedleyDBデータセットを混合したベースラインのOpen-Unmixモデルよりも優れていることがわかった。
論文 参考訳(メタデータ) (2020-08-03T02:35:00Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。