論文の概要: DeepDrummer : Generating Drum Loops using Deep Learning and a Human in
the Loop
- arxiv url: http://arxiv.org/abs/2008.04391v2
- Date: Wed, 26 Aug 2020 21:09:23 GMT
- ステータス: 翻訳完了
- システム内更新日: 2022-10-31 22:30:06.047030
- Title: DeepDrummer : Generating Drum Loops using Deep Learning and a Human in
the Loop
- Title(参考訳): DeepDrummer : ディープラーニングとループ中の人間を用いたドラムループの生成
- Authors: Guillaume Alain, Maxime Chevalier-Boisvert, Frederic Osterrath, Remi
Piche-Taillefer
- Abstract要約: DeepDrummerは、アクティブラーニングを使用して、少数のインタラクションから人間のユーザの好みを学習するドラムループ生成ツールである。
本研究は,ドラムループを生成するシステムのコアコンポーネントとして,先行する信念の少ないシステムとして,どのように利用することができるかを示す。
- 参考スコア(独自算出の注目度): 3.2454838786531486
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: DeepDrummer is a drum loop generation tool that uses active learning to learn
the preferences (or current artistic intentions) of a human user from a small
number of interactions. The principal goal of this tool is to enable an
efficient exploration of new musical ideas. We train a deep neural network
classifier on audio data and show how it can be used as the core component of a
system that generates drum loops based on few prior beliefs as to how these
loops should be structured.
We aim to build a system that can converge to meaningful results even with a
limited number of interactions with the user. This property enables our method
to be used from a cold start situation (no pre-existing dataset), or starting
from a collection of audio samples provided by the user. In a proof of concept
study with 25 participants, we empirically demonstrate that DeepDrummer is able
to converge towards the preference of our subjects after a small number of
interactions.
- Abstract(参考訳): DeepDrummerは、アクティブラーニングを使用して、少数のインタラクションから人間の好み(または現在の芸術的意図)を学ぶドラムループ生成ツールである。
このツールの主な目標は、新しい音楽のアイデアを効率的に探究できるようにすることである。
我々は,音声データに基づく深層ニューラルネットワーク分類器を訓練し,これらのループの構造について,事前の信念に基づいてドラムループを生成するシステムのコアコンポーネントとしてどのように使用できるかを示す。
ユーザとのインタラクションが限られている場合でも,意味のある結果に収束するシステムの構築を目指している。
この特性により,本手法はコールドスタート状況(既存のデータセットを含まない)から,あるいはユーザが提供するオーディオサンプルのコレクションから利用することができる。
参加者25名による概念研究の実証実験において,DeepDrummerが少数の相互作用を経て被験者の好みに収束できることを実証的に実証した。
関連論文リスト
- SynthScribe: Deep Multimodal Tools for Synthesizer Sound Retrieval and
Exploration [21.473019531697062]
マルチモーダルディープラーニングを用いて,ユーザの意図をはるかに高いレベルで表現できるフルスタックシステムを実装した。
我々は,1)既存の音を探索すること,2)全く新しい音を作り出すこと,3)所定の音に意味のある修正を加えること,など,様々な課題に対処する機能を実装している。
論文 参考訳(メタデータ) (2023-12-07T20:40:36Z) - Self-Supervised Contrastive Learning for Robust Audio-Sheet Music
Retrieval Systems [3.997809845676912]
自己指導型コントラスト学習は、実際の音楽コンテンツからの注釈付きデータの不足を軽減することができることを示す。
クロスモーダルなピース識別の高レベルなタスクにスニペットを埋め込む。
本研究では,実際の音楽データが存在する場合,検索品質が30%から100%に向上することが観察された。
論文 参考訳(メタデータ) (2023-09-21T14:54:48Z) - Bootstrapping Adaptive Human-Machine Interfaces with Offline
Reinforcement Learning [82.91837418721182]
適応インターフェイスは、ユーザがシーケンシャルな意思決定タスクを実行するのに役立つ。
近年のヒューマン・イン・ザ・ループ・機械学習の進歩により、ユーザとの対話によってこのようなシステムが改善されている。
本稿では,生のコマンド信号をアクションにマッピングするインタフェースを訓練するための強化学習アルゴリズムを提案する。
論文 参考訳(メタデータ) (2023-09-07T16:52:27Z) - Show Me the Instruments: Musical Instrument Retrieval from Mixture Audio [11.941510958668557]
これを「楽器検索」と呼ぶ。
本稿では,クエリーとして参照音楽の混合を用いて,所望の楽器を検索する手法を提案する。
提案モデルは,畳み込みニューラルネットワークに基づくシングルインスツルメンツとマルチインスツルメンツで構成されている。
論文 参考訳(メタデータ) (2022-11-15T07:32:39Z) - Play it by Ear: Learning Skills amidst Occlusion through Audio-Visual
Imitation Learning [62.83590925557013]
我々は視覚と音声の入力から、部分的に観察された操作タスクのセットを学習する。
提案システムは,遠隔操作による実演とオンラインファインタニングを併用することで,これらの課題を学習する。
模擬課題の集合において、我々のシステムは音声を使うことの恩恵を受けており、オンライン介入を用いることで、オフライン模倣学習の成功率を20%向上できることがわかった。
論文 参考訳(メタデータ) (2022-05-30T04:52:58Z) - Binaural SoundNet: Predicting Semantics, Depth and Motion with Binaural
Sounds [118.54908665440826]
人間は視覚的および/または聴覚的手がかりを用いて、オブジェクトを頑健に認識し、ローカライズすることができる。
この研究は、純粋に音に基づくシーン理解のためのアプローチを開発する。
視覚的および音声的手がかりの共存は、監督伝達に活用される。
論文 参考訳(メタデータ) (2021-09-06T22:24:00Z) - Detecting Generic Music Features with Single Layer Feedforward Network
using Unsupervised Hebbian Computation [3.8707695363745223]
著者らは、人気のあるオープンソース音楽コーパスから、そのような特徴に関する情報を抽出する。
彼らは同じデータセットを使用して、一層ニューラルネットワークに教師なしのヘビアン学習技術を適用する。
教師なしトレーニングアルゴリズムは、提案したニューラルネットワークを強化し、音楽特徴の検出を成功させるために90.36%の精度を達成する。
論文 参考訳(メタデータ) (2020-08-31T13:57:31Z) - Semantic Object Prediction and Spatial Sound Super-Resolution with
Binaural Sounds [106.87299276189458]
人間は視覚的および聴覚的手がかりを統合することで、オブジェクトを強く認識し、ローカライズすることができる。
この研究は、純粋に音に基づく、音生成対象の密接なセマンティックラベリングのためのアプローチを開発する。
論文 参考訳(メタデータ) (2020-03-09T15:49:01Z) - RL-Duet: Online Music Accompaniment Generation Using Deep Reinforcement
Learning [69.20460466735852]
本稿では,オンライン伴奏生成のための深層強化学習アルゴリズムを提案する。
提案アルゴリズムは人体に応答し,メロディック,ハーモニック,多種多様な機械部品を生成する。
論文 参考訳(メタデータ) (2020-02-08T03:53:52Z) - Deep Learning for MIR Tutorial [68.8204255655161]
このチュートリアルは、広範囲にわたるMIR関連ディープラーニングアプローチをカバーしている。
textbfConvolutional Neural Networksは現在、ディープラーニングベースのオーディオ検索のためのデファクトスタンダードである。
textbfSiamese Networksは音楽類似性検索に特有な音声表現と距離関数の学習に有効であることが示されている。
論文 参考訳(メタデータ) (2020-01-15T12:23:17Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。