論文の概要: Automatic DJ Transitions with Differentiable Audio Effects and
Generative Adversarial Networks
- arxiv url: http://arxiv.org/abs/2110.06525v1
- Date: Wed, 13 Oct 2021 06:25:52 GMT
- ステータス: 処理完了
- システム内更新日: 2021-10-14 16:21:44.364272
- Title: Automatic DJ Transitions with Differentiable Audio Effects and
Generative Adversarial Networks
- Title(参考訳): 音響効果の異なる自動DJ遷移と生成逆ネットワーク
- Authors: Bo-Yu Chen, Wei-Han Hsu, Wei-Hsiang Liao, Marco A. Mart\'inez
Ram\'irez, Yuki Mitsufuji and Yi-Hsuan Yang
- Abstract要約: Disc Jockey (DJ) の中心的なタスクは、隣接するトラック間のシームレスな遷移を伴うミューシックのミックスセットを作成することである。
本稿では,実世界のDJミキシングから学習することで,生成的敵対ネットワークを用いて楽曲遷移を生成するデータ駆動型アプローチについて検討する。
- 参考スコア(独自算出の注目度): 30.480360404811197
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: A central task of a Disc Jockey (DJ) is to create a mixset of mu-sic with
seamless transitions between adjacent tracks. In this paper, we explore a
data-driven approach that uses a generative adversarial network to create the
song transition by learning from real-world DJ mixes. In particular, the
generator of the model uses two differentiable digital signal processing
components, an equalizer (EQ) and a fader, to mix two tracks selected by a data
generation pipeline. The generator has to set the parameters of the EQs and
fader in such away that the resulting mix resembles real mixes created by
humanDJ, as judged by the discriminator counterpart. Result of a listening test
shows that the model can achieve competitive results compared with a number of
baselines.
- Abstract(参考訳): ディスクジョッキー(DJ)の中心的なタスクは、隣接するトラック間のシームレスな遷移を伴うミューシックのミックスセットを作成することである。
本稿では,実世界のDJミキシングから学習することで,生成的敵対ネットワークを用いて楽曲遷移を生成するデータ駆動アプローチについて検討する。
特に、モデルのジェネレータは、2つの異なるデジタル信号処理コンポーネント、等化器(EQ)とフェイダーを使用して、データ生成パイプラインによって選択された2つのトラックを混合する。
生成器はeqsとfaderのパラメータを、判定器が判断するようにhumandjが生成した実混合に類似するように設定する必要がある。
リスニングテストの結果、モデルが多くのベースラインと比較して競争力のある結果が得られることがわかった。
関連論文リスト
- Frieren: Efficient Video-to-Audio Generation Network with Rectified Flow Matching [51.70360630470263]
Video-to-audio (V2A) は、サイレントビデオからコンテンツマッチング音声を合成することを目的としている。
本稿では,修正フローマッチングに基づくV2AモデルであるFrierenを提案する。
実験により、フリーレンは世代品質と時間的アライメントの両方で最先端のパフォーマンスを達成することが示された。
論文 参考訳(メタデータ) (2024-06-01T06:40:22Z) - Bass Accompaniment Generation via Latent Diffusion [0.0]
任意の長さのミキシングに付随する単一茎を生成する制御可能なシステムを提案する。
本手法のコアとなるのは、音声波形サンプルを効率よく非可逆な潜在表現に圧縮するオーディオオートエンコーダである。
制御可能な条件付きオーディオ生成フレームワークは、音楽制作においてミュージシャンを支援するための生成AIツールを作成する上で、大きな前進となる。
論文 参考訳(メタデータ) (2024-02-02T13:44:47Z) - DiffMoog: a Differentiable Modular Synthesizer for Sound Matching [48.33168531500444]
DiffMoogはモジュラーシンセサイザーで、一般に商用機器で見られるモジュールの集合を包含する。
差別化が可能であるため、ニューラルネットワークとの統合が可能になり、自動サウンドマッチングが可能になる。
我々はDiffMoogとエンドツーエンドのサウンドマッチングフレームワークを組み合わせたオープンソースのプラットフォームを紹介した。
論文 参考訳(メタデータ) (2024-01-23T08:59:21Z) - Anomalous Sound Detection using Audio Representation with Machine ID
based Contrastive Learning Pretraining [52.191658157204856]
コントラスト学習を用いて、各音声サンプルではなく、各機械IDの音声表現を洗練する。
提案手法では、コントラスト学習を用いて音声表現モデルを事前学習する。
実験の結果,本手法はコントラスト学習や自己教師型分類を用いて最先端の手法よりも優れていた。
論文 参考訳(メタデータ) (2023-04-07T11:08:31Z) - Music Mixing Style Transfer: A Contrastive Learning Approach to
Disentangle Audio Effects [23.29395422386749]
入力されたマルチトラックのミキシングスタイルを参照歌のミキシングスタイルに変換するエンド・ツー・エンドのミキシングスタイル転送システムを提案する。
これは、基準音楽記録からオーディオ効果関連情報のみを抽出するために、コントラスト目的で事前訓練されたエンコーダで達成される。
論文 参考訳(メタデータ) (2022-11-04T03:45:17Z) - Differentiable Digital Signal Processing Mixture Model for Synthesis
Parameter Extraction from Mixture of Harmonic Sounds [29.012177604120048]
DDSPオートエンコーダ(DDSP Autoencoder)は、ディープニューラルネットワーク(DNN)とスペクトルモデリング合成を組み合わせた音響である。
入力音から抽出した基本周波数,音色,大音量(合成パラメータ)を変化させることで,音を柔軟に編集することができる。
モノフォニック・ハーモニック・サウンド用に設計されており、ハーモニックの混合音を扱えない。
論文 参考訳(メタデータ) (2022-02-01T03:38:49Z) - Multi-Channel End-to-End Neural Diarization with Distributed Microphones [53.99406868339701]
EENDのTransformerエンコーダを,マルチチャネル入力を処理する2種類のエンコーダに置き換える。
また,単一チャンネル記録のみを用いたモデル適応手法を提案する。
論文 参考訳(メタデータ) (2021-10-10T03:24:03Z) - Modeling the Compatibility of Stem Tracks to Generate Music Mashups [6.922825755771942]
音楽マッシュアップは、2つ以上の曲のオーディオ要素を組み合わせて新しい作品を作成する。
研究は、オーディオ要素の互換性を予測するアルゴリズムを開発した。
論文 参考訳(メタデータ) (2021-03-26T01:51:11Z) - Boosting the Predictive Accurary of Singer Identification Using Discrete
Wavelet Transform For Feature Extraction [0.0]
我々はMel Frequency Cepstral Coefficient (MFCC)と比較して離散ウェーブレット変換(DWT)の性能について検討した。
本研究で導入された DWT (db4) 特徴抽出と, 平均精度83.96% となる線形支持ベクトルマシンの組み合わせにより, 最適識別システムを構築した。
論文 参考訳(メタデータ) (2021-01-31T21:58:55Z) - Unsupervised Cross-Domain Singing Voice Conversion [105.1021715879586]
任意の同一性から音声変換を行うタスクに対して,wav-to-wav生成モデルを提案する。
提案手法は,自動音声認識のタスクのために訓練された音響モデルとメロディ抽出機能の両方を用いて波形ベースジェネレータを駆動する。
論文 参考訳(メタデータ) (2020-08-06T18:29:11Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。