論文の概要: SampleMatch: Drum Sample Retrieval by Musical Context
- arxiv url: http://arxiv.org/abs/2208.01141v1
- Date: Mon, 1 Aug 2022 21:10:38 GMT
- ステータス: 処理完了
- システム内更新日: 2022-08-03 13:50:13.580777
- Title: SampleMatch: Drum Sample Retrieval by Musical Context
- Title(参考訳): samplematch: 音楽的文脈によるドラムサンプル検索
- Authors: Stefan Lattner
- Abstract要約: データから学習した審美的原理に基づく自動ドラムサンプル検索について検討する。
我々は、コントラスト学習を用いて、ミックスと同じ曲に由来するドラムサンプルのスコアを最大化する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Modern digital music production typically involves combining numerous
acoustic elements to compile a piece of music. Important types of such elements
are drum samples, which determine the characteristics of the percussive
components of the piece. Artists must use their aesthetic judgement to assess
whether a given drum sample fits the current musical context. However,
selecting drum samples from a potentially large library is tedious and may
interrupt the creative flow. In this work, we explore the automatic drum sample
retrieval based on aesthetic principles learned from data. As a result, artists
can rank the samples in their library by fit to some musical context at
different stages of the production process (i.e., by fit to incomplete song
mixtures). To this end, we use contrastive learning to maximize the score of
drum samples originating from the same song as the mixture. We conduct a
listening test to determine whether the human ratings match the automatic
scoring function. We also perform objective quantitative analyses to evaluate
the efficacy of our approach.
- Abstract(参考訳): 現代のデジタル音楽制作は通常、多数の音響要素を組み合わせて楽曲を合成する。
このような要素の重要なタイプはドラムサンプルであり、曲の打楽器成分の特徴を決定する。
アーティストは、あるドラムサンプルが現在の音楽的文脈に合うかどうかを評価するために、審美的判断を使わなければならない。
しかし、潜在的に大きなライブラリからドラムサンプルを選択するのは面倒で、創造的な流れを中断する可能性がある。
本研究では,データから学習した美的原理に基づく自動ドラムサンプル検索について検討する。
結果として、アーティストは、制作過程の異なる段階(すなわち、不完全な曲の混合に適合する)の音楽的文脈に合わせて、ライブラリ内のサンプルをランク付けすることができる。
この目的のために、コントラスト学習を用いて、ミックスと同じ曲に由来するドラムサンプルのスコアを最大化する。
評価が自動スコアリング機能に合致するかどうかを判断するために聞き取りテストを行う。
また,本手法の有効性を評価するために客観的な定量的分析を行った。
関連論文リスト
- Toward Deep Drum Source Separation [55.801504997501084]
本稿では,独立した単一構造ドラムステムの大規模オーディオデータセットであるStemGMDを紹介する。
合計1224時間、StemGMDはドラムのオーディオデータセットとしてこれまでで最大である。
我々は、StemGMDを利用して、新しいディープドラムソース分離モデルであるLarsNetを開発した。
論文 参考訳(メタデータ) (2023-12-15T10:23:07Z) - Simple and Controllable Music Generation [94.61958781346176]
MusicGenは単一の言語モデル(LM)であり、圧縮された離散的な音楽表現、すなわちトークンの複数のストリームで動作する。
以前の作業とは異なり、MusicGenはシングルステージのトランスフォーマーLMと効率的なトークンインターリービングパターンで構成されている。
論文 参考訳(メタデータ) (2023-06-08T15:31:05Z) - Setting the rhythm scene: deep learning-based drum loop generation from
arbitrary language cues [0.0]
言語キューの「ムード」を具現化した4ピースドラムパターンの2コンパスを生成する新しい手法を提案する。
我々は,このツールを電子音楽とオーディオヴィジュアルサウンドトラック制作のための作曲支援,あるいはライブ演奏のための即興ツールとして想定する。
このモデルのトレーニングサンプルを作成するため,各曲のコンセンサス・ドラムトラックを抽出する新たな手法を考案した。
論文 参考訳(メタデータ) (2022-09-20T21:53:35Z) - Quantized GAN for Complex Music Generation from Dance Videos [48.196705493763986]
D2M-GAN(Dance2Music-GAN, D2M-GAN, D2M-GAN)は、ダンスビデオに条件付けされた楽曲のサンプルを生成する新しいマルチモーダルフレームワークである。
提案フレームワークは,ダンスビデオフレームと人体の動きを入力とし,対応する入力に付随する音楽サンプルを生成することを学習する。
論文 参考訳(メタデータ) (2022-04-01T17:53:39Z) - Contrastive Learning with Positive-Negative Frame Mask for Music
Representation [91.44187939465948]
本稿では,PEMRと略記したコントラッシブラーニングフレームワークに基づく,音楽表現のための正負負のフレームマスクを提案する。
我々は,同じ音楽からサンプリングした自己増強陽性/陰性の両方に対応するために,新しいコントラスト学習目標を考案した。
論文 参考訳(メタデータ) (2022-03-17T07:11:42Z) - A Perceptual Measure for Evaluating the Resynthesis of Automatic Music
Transcriptions [10.957528713294874]
本研究では,室内音響や楽器などの環境要因が変化した場合の演奏の知覚に焦点を当てた。
我々は「演出」の概念と「芸術的意図」を表現する「解釈」の概念を区別することを提案する。
論文 参考訳(メタデータ) (2022-02-24T18:09:22Z) - Conditional Drums Generation using Compound Word Representations [4.435094091999926]
複合語表現にインスパイアされた新しいデータ符号化方式を用いて、条件付きドラム生成の課題に取り組む。
本稿では,双方向長短期メモリ(BiLSTM)が条件パラメータに関する情報を受信するシーケンス・ツー・シーケンスアーキテクチャを提案する。
比較的グローバルな注目を集めたトランスフォーマーベースのデコーダが生成したドラムシーケンスを生成する。
論文 参考訳(メタデータ) (2022-02-09T13:49:27Z) - Evaluating Deep Music Generation Methods Using Data Augmentation [13.72212417973239]
我々は,アルゴリズムによって生成された楽曲のサンプルを評価するための,均質で客観的な枠組みに焦点をあてる。
生成した楽曲の楽譜評価は行わず,感情や気分やテーマに関する意味のある情報が含まれているかを探る。
論文 参考訳(メタデータ) (2021-12-31T20:35:46Z) - Towards Automatic Instrumentation by Learning to Separate Parts in
Symbolic Multitrack Music [33.679951600368405]
演奏中のソロ音楽の音符に楽器を動的に割り当てる自動楽器の実現可能性について検討する。
オンラインでリアルタイムに使用可能なパフォーマンスユースケースの設定に加えて、自動インスツルメンテーションはオフライン環境での補助的な構成ツールのアプリケーションも見つけることができる。
我々は,パート分離の課題を逐次多クラス分類問題として捉え,音符のシーケンスをパートラベルのシーケンスにマッピングするために機械学習を採用する。
論文 参考訳(メタデータ) (2021-07-13T08:34:44Z) - A framework to compare music generative models using automatic
evaluation metrics extended to rhythm [69.2737664640826]
本稿では,前回の研究で提示された,リズムを考慮せず,設計決定を下すための枠組みを取り上げ,単音素音楽作成における2つのrnnメモリセルの性能評価のためにリズムサポートを付加した。
モデルでは,音素変換の処理を考慮し,リズムサポートを付加した幾何学に基づく自動計測値を用いて,生成した楽曲の質を評価する。
論文 参考訳(メタデータ) (2021-01-19T15:04:46Z) - Bach or Mock? A Grading Function for Chorales in the Style of J.S. Bach [74.09517278785519]
本稿では,J.S.バッハ様式の4パート合唱曲を重要な音楽的特徴とともに評価するグレーディング機能を提案する。
この機能は,Bach合唱曲とモデル生成の合唱曲を区別する上で,人間専門家より優れていることを示す。
論文 参考訳(メタデータ) (2020-06-23T21:02:55Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。