論文の概要: Music Generation using Human-In-The-Loop Reinforcement Learning
- arxiv url: http://arxiv.org/abs/2501.15304v1
- Date: Sat, 25 Jan 2025 19:01:51 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-01-28 13:57:40.348227
- Title: Music Generation using Human-In-The-Loop Reinforcement Learning
- Title(参考訳): ヒューマン・イン・ザ・ループ強化学習を用いた音楽生成
- Authors: Aju Ani Justus,
- Abstract要約: 本稿では,Human-In-The-Loop Reinforcement Learning (HITL RL) と音楽理論から派生した原理を組み合わせた楽曲のリアルタイム生成手法を提案する。
- 参考スコア(独自算出の注目度): 0.0
- License:
- Abstract: This paper presents an approach that combines Human-In-The-Loop Reinforcement Learning (HITL RL) with principles derived from music theory to facilitate real-time generation of musical compositions. HITL RL, previously employed in diverse applications such as modelling humanoid robot mechanics and enhancing language models, harnesses human feedback to refine the training process. In this study, we develop a HILT RL framework that can leverage the constraints and principles in music theory. In particular, we propose an episodic tabular Q-learning algorithm with an epsilon-greedy exploration policy. The system generates musical tracks (compositions), continuously enhancing its quality through iterative human-in-the-loop feedback. The reward function for this process is the subjective musical taste of the user.
- Abstract(参考訳): 本稿では,Human-In-The-Loop Reinforcement Learning (HITL RL) と音楽理論から派生した原理を組み合わせた楽曲のリアルタイム生成手法を提案する。
HITL RLは、以前はヒューマノイドロボット力学のモデル化や言語モデルの強化など様々な用途に用いられており、人間のフィードバックを利用してトレーニングプロセスを洗練している。
本研究では,音楽理論の制約と原理を活用できるHILT RLフレームワークを開発した。
特に,epsilon-greedy 探索ポリシーを用いた表層グラフ型Q-ラーニングアルゴリズムを提案する。
このシステムは音楽トラック(作曲)を生成し、反復的なヒューマン・イン・ザ・ループフィードバックを通じてその品質を継続的に向上させる。
このプロセスの報酬機能は、ユーザの主観的な音楽的味である。
関連論文リスト
- Tuning Music Education: AI-Powered Personalization in Learning Music [0.2046223849354785]
本稿では,音楽教育の課題に対処するために,このような音楽技術の進歩を利用した2つのケーススタディを提案する。
最初のケーススタディでは、音声トラックからパーソナライズされたエクササイズを生成するために、自動コード認識を使用するアプリケーションを紹介した。
第2のケーススタディでは,アダプティブピアノ方式の本を試作し,オートマチック・ミュージック・トランストラクレーションを用いて,異なるスキルレベルでのエクササイズを生成する。
論文 参考訳(メタデータ) (2024-12-18T05:25:42Z) - MuseBarControl: Enhancing Fine-Grained Control in Symbolic Music Generation through Pre-Training and Counterfactual Loss [51.85076222868963]
制御信号と対応する音楽トークンを直接リンクする事前学習タスクを導入する。
次に、生成した音楽と制御プロンプトとの整合性を向上する新たな対実的損失を実現する。
論文 参考訳(メタデータ) (2024-07-05T08:08:22Z) - MuPT: A Generative Symbolic Music Pretrained Transformer [56.09299510129221]
音楽の事前学習におけるLarge Language Models (LLM) の適用について検討する。
生成過程の異なるトラックからの不整合対策に関連する課題に対処するために,SMT-ABC Notation(Synchronized Multi-Track ABC Notation)を提案する。
私たちのコントリビューションには、最大8192個のトークンを処理可能な一連のモデルが含まれており、トレーニングセットの象徴的な音楽データの90%をカバーしています。
論文 参考訳(メタデータ) (2024-04-09T15:35:52Z) - A Survey of Music Generation in the Context of Interaction [3.6522809408725223]
機械学習は、メロディーとポリフォニックの両方の曲の作曲と生成に成功している。
これらのモデルのほとんどは、ライブインタラクションによる人間と機械の共創には適していない。
論文 参考訳(メタデータ) (2024-02-23T12:41:44Z) - MusicRL: Aligning Music Generation to Human Preferences [62.44903326718772]
MusicRLは人間のフィードバックによって微調整された最初の音楽生成システムである。
ユーザに対してMusicLMをデプロイし,30,000対の選好からなる実質的なデータセットを収集する。
人間のフィードバックを大規模に組み込んだ最初のテキスト-音楽モデルであるMusicRL-Uを訓練する。
論文 参考訳(メタデータ) (2024-02-06T18:36:52Z) - Contrastive Preference Learning: Learning from Human Feedback without RL [71.77024922527642]
本稿では、報酬関数を学習せずに好みから最適なポリシーを学習するアルゴリズムであるContrastive Preference Learning (CPL)を紹介する。
CPLは完全に非政治的であり、単純なコントラスト目的のみを使用し、任意のMDPに適用できる。
論文 参考訳(メタデータ) (2023-10-20T16:37:56Z) - Music Composition with Deep Learning: A Review [1.7188280334580197]
創造性のある音楽を生成するための,現在のディープラーニングモデルの能力について分析する。
理論的観点からこれらのモデルと作曲過程を比較した。
論文 参考訳(メタデータ) (2021-08-27T13:53:53Z) - Incorporating Music Knowledge in Continual Dataset Augmentation for
Music Generation [69.06413031969674]
Aug-Genは、リソース制約のあるドメインでトレーニングされた任意の音楽生成システムに対するデータセット拡張の方法である。
我々は、Aug-Gen をトランスフォーマーベースのコラール生成に J.S. Bach のスタイルで適用し、これによりより長いトレーニングが可能となり、より優れた生成出力が得られることを示す。
論文 参考訳(メタデータ) (2020-06-23T21:06:15Z) - RL-Duet: Online Music Accompaniment Generation Using Deep Reinforcement
Learning [69.20460466735852]
本稿では,オンライン伴奏生成のための深層強化学習アルゴリズムを提案する。
提案アルゴリズムは人体に応答し,メロディック,ハーモニック,多種多様な機械部品を生成する。
論文 参考訳(メタデータ) (2020-02-08T03:53:52Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。