論文の概要: Automatic music mixing with deep learning and out-of-domain data
- arxiv url: http://arxiv.org/abs/2208.11428v1
- Date: Wed, 24 Aug 2022 10:50:22 GMT
- ステータス: 処理完了
- システム内更新日: 2022-08-25 13:32:30.077415
- Title: Automatic music mixing with deep learning and out-of-domain data
- Title(参考訳): ディープラーニングとドメイン外データによる音楽の自動混合
- Authors: Marco A. Mart\'inez-Ram\'irez, Wei-Hsiang Liao, Giorgio Fabbro, Stefan
Uhlich, Chihiro Nagashima, Yuki Mitsufuji
- Abstract要約: 伝統的に、音楽のミキシングは、クリーンで個々のトラックの形で楽器を録音し、オーディオ効果と専門家の知識を使ってそれらを最後のミキシングに混ぜる。
本稿では,モデルが自動音楽ミキシングを行うことのできる新しいデータ前処理手法を提案する。
また,音楽ミキシングシステム評価のためのリスニングテスト手法を再設計した。
- 参考スコア(独自算出の注目度): 10.670987762781834
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Music mixing traditionally involves recording instruments in the form of
clean, individual tracks and blending them into a final mixture using audio
effects and expert knowledge (e.g., a mixing engineer). The automation of music
production tasks has become an emerging field in recent years, where rule-based
methods and machine learning approaches have been explored. Nevertheless, the
lack of dry or clean instrument recordings limits the performance of such
models, which is still far from professional human-made mixes. We explore
whether we can use out-of-domain data such as wet or processed multitrack music
recordings and repurpose it to train supervised deep learning models that can
bridge the current gap in automatic mixing quality. To achieve this we propose
a novel data preprocessing method that allows the models to perform automatic
music mixing. We also redesigned a listening test method for evaluating music
mixing systems. We validate our results through such subjective tests using
highly experienced mixing engineers as participants.
- Abstract(参考訳): 音楽のミキシングは伝統的に、楽器をクリーンで個々のトラックの形で録音し、オーディオ効果と専門家の知識(例えばミキシングエンジニア)を使って最終的なミキシングにブレンドする。
近年,音楽制作タスクの自動化が新たな分野となり,ルールベースの手法や機械学習アプローチが研究されている。
それでも、ドライまたはクリーンな楽器記録の欠如は、そのようなモデルの性能を制限している。
本研究では,湿地データやマルチトラック音楽記録などの領域外データを使用して,教師付きディープラーニングモデルを訓練し,現在の混合品質のギャップを埋めることができるか検討する。
これを実現するために,モデルが自動音楽混合を可能にする新しいデータプリプロセッシング手法を提案する。
また,音楽混合システム評価のためのリスニングテスト手法も再設計した。
実験の結果は,経験豊富な混合技術者を被験者として,主観的テストにより検証した。
関連論文リスト
- Simple and Controllable Music Generation [94.61958781346176]
MusicGenは単一の言語モデル(LM)であり、圧縮された離散的な音楽表現、すなわちトークンの複数のストリームで動作する。
以前の作業とは異なり、MusicGenはシングルステージのトランスフォーマーLMと効率的なトークンインターリービングパターンで構成されている。
論文 参考訳(メタデータ) (2023-06-08T15:31:05Z) - MERT: Acoustic Music Understanding Model with Large-Scale Self-supervised Training [74.32603591331718]
本稿では,MLMスタイルの音響事前学習において,教師モデルと擬似ラベルを組み込んだ大規模自己教師型学習(MERT)を用いた音響音楽理解モデルを提案する。
実験結果から,本モデルでは14曲の楽曲理解タスクを一般化し,性能を向上し,SOTA(State-of-the-art)全体のスコアを達成できることが示唆された。
論文 参考訳(メタデータ) (2023-05-31T18:27:43Z) - Anomalous Sound Detection using Audio Representation with Machine ID
based Contrastive Learning Pretraining [52.191658157204856]
コントラスト学習を用いて、各音声サンプルではなく、各機械IDの音声表現を洗練する。
提案手法では、コントラスト学習を用いて音声表現モデルを事前学習する。
実験の結果,本手法はコントラスト学習や自己教師型分類を用いて最先端の手法よりも優れていた。
論文 参考訳(メタデータ) (2023-04-07T11:08:31Z) - Music Instrument Classification Reprogrammed [79.68916470119743]
プログラム」とは、事前学習されたモデルの入力と出力の両方を修正・マッピングすることで、もともと異なるタスクをターゲットにした、事前学習された深層・複雑なニューラルネットワークを利用する手法である。
本研究では,異なるタスクで学習した表現のパワーを効果的に活用できることを実証し,結果として得られた再プログラムシステムは,訓練パラメータのごく一部で,同等あるいはそれ以上の性能を持つシステムでも実行可能であることを実証する。
論文 参考訳(メタデータ) (2022-11-15T18:26:01Z) - Music Mixing Style Transfer: A Contrastive Learning Approach to
Disentangle Audio Effects [23.29395422386749]
入力されたマルチトラックのミキシングスタイルを参照歌のミキシングスタイルに変換するエンド・ツー・エンドのミキシングスタイル転送システムを提案する。
これは、基準音楽記録からオーディオ効果関連情報のみを抽出するために、コントラスト目的で事前訓練されたエンコーダで達成される。
論文 参考訳(メタデータ) (2022-11-04T03:45:17Z) - Improved singing voice separation with chromagram-based pitch-aware
remixing [26.299721372221736]
高いピッチアライメントを持つ音楽セグメントを混合したクロマグラムベースのピッチ認識リミックスを提案する。
我々は、ピッチ認識リミックスによるトレーニングモデルにより、テスト信号-歪み比(SDR)が大幅に改善されることを実証した。
論文 参考訳(メタデータ) (2022-03-28T20:55:54Z) - End-to-end Music Remastering System Using Self-supervised and
Adversarial Training [18.346033788545135]
本稿では,入力音声のマスタリングスタイルをターゲットに変換するエンド・ツー・エンドの音楽リマスターシステムを提案する。
システムは自己指導的な方法で訓練され、解放されたポップソングがトレーニングに使用された。
実験の結果を定量的な測定値と主観的聴力テストで検証し,本モデルが対象と類似したマスタリングスタイルのサンプルを生成することを示す。
論文 参考訳(メタデータ) (2022-02-17T08:50:12Z) - Modeling the Compatibility of Stem Tracks to Generate Music Mashups [6.922825755771942]
音楽マッシュアップは、2つ以上の曲のオーディオ要素を組み合わせて新しい作品を作成する。
研究は、オーディオ要素の互換性を予測するアルゴリズムを開発した。
論文 参考訳(メタデータ) (2021-03-26T01:51:11Z) - Unsupervised Cross-Domain Singing Voice Conversion [105.1021715879586]
任意の同一性から音声変換を行うタスクに対して,wav-to-wav生成モデルを提案する。
提案手法は,自動音声認識のタスクのために訓練された音響モデルとメロディ抽出機能の両方を用いて波形ベースジェネレータを駆動する。
論文 参考訳(メタデータ) (2020-08-06T18:29:11Z) - Learning to Denoise Historical Music [30.165194151843835]
そこで我々は,古い録音を聴くことを学習する音声から音声へのニューラルネットモデルを提案する。
ネットワークは、ノイズの多い音楽データセット上で、再構成と敵の目的の両方で訓練される。
提案手法は,原曲の品質と詳細を保存しながら,ノイズ除去に有効であることを示す。
論文 参考訳(メタデータ) (2020-08-05T10:05:44Z) - RL-Duet: Online Music Accompaniment Generation Using Deep Reinforcement
Learning [69.20460466735852]
本稿では,オンライン伴奏生成のための深層強化学習アルゴリズムを提案する。
提案アルゴリズムは人体に応答し,メロディック,ハーモニック,多種多様な機械部品を生成する。
論文 参考訳(メタデータ) (2020-02-08T03:53:52Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。