論文の概要: Generating music with sentiment using Transformer-GANs
- arxiv url: http://arxiv.org/abs/2212.11134v1
- Date: Wed, 21 Dec 2022 15:59:35 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-22 15:57:57.017340
- Title: Generating music with sentiment using Transformer-GANs
- Title(参考訳): Transformer-GAN を用いた感情による音楽生成
- Authors: Pedro Neves, Jose Fornari, Jo\~ao Florindo
- Abstract要約: 本研究では,人間の感情から得られるデータによって条件付けられた記号音楽の生成モデルを提案する。
我々は,効率の良い線形バージョンの注意と識別器を用いることで,上記の問題に対処しようと試みている。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The field of Automatic Music Generation has seen significant progress thanks
to the advent of Deep Learning. However, most of these results have been
produced by unconditional models, which lack the ability to interact with their
users, not allowing them to guide the generative process in meaningful and
practical ways. Moreover, synthesizing music that remains coherent across
longer timescales while still capturing the local aspects that make it sound
``realistic'' or ``human-like'' is still challenging. This is due to the large
computational requirements needed to work with long sequences of data, and also
to limitations imposed by the training schemes that are often employed. In this
paper, we propose a generative model of symbolic music conditioned by data
retrieved from human sentiment. The model is a Transformer-GAN trained with
labels that correspond to different configurations of the valence and arousal
dimensions that quantitatively represent human affective states. We try to
tackle both of the problems above by employing an efficient linear version of
Attention and using a Discriminator both as a tool to improve the overall
quality of the generated music and its ability to follow the conditioning
signals.
- Abstract(参考訳): 自動音楽生成の分野は、ディープラーニングの出現によって大きな進歩を遂げている。
しかし、これらの結果の多くは、ユーザと対話する能力がなく、意味のある実用的な方法で生成プロセスを導くことができない無条件モデルによって生み出されている。
さらに、より長い時間スケールでコヒーレントな音楽の合成は、「現実的」あるいは「人間的」に聞こえる局地的な側面を捉え続けることは依然として困難である。
これは、長いデータ列を扱うのに必要な膨大な計算量と、しばしば使用されるトレーニングスキームによって課される制限のためである。
本稿では,人間の感情から得られたデータから条件づけられたシンボリック音楽の生成モデルを提案する。
このモデルは、人間の感情状態を定量的に表現する原子価と刺激次元の異なる構成に対応するラベルで訓練されたトランスフォーマーGANである。
本研究では,効率の良い線形バージョンの注意と識別器を併用することで,これらの課題に対処し,生成した音楽の全体的な品質向上と条件付き信号の追従能力の向上を図る。
関連論文リスト
- Symbolic Music Generation with Fine-grained Interactive Textural Guidance [13.052085651071135]
拡散モデルにFTGを導入し,学習した分布の誤差を補正する。
シンボリック音楽生成における課題とFTGアプローチの効果について理論的特徴を導出する。
ユーザ入力によるインタラクティブな音楽生成のためのデモページを提供し,提案手法の有効性を実証する。
論文 参考訳(メタデータ) (2024-10-11T00:41:46Z) - MuseBarControl: Enhancing Fine-Grained Control in Symbolic Music Generation through Pre-Training and Counterfactual Loss [51.85076222868963]
制御信号と対応する音楽トークンを直接リンクする事前学習タスクを導入する。
次に、生成した音楽と制御プロンプトとの整合性を向上する新たな対実的損失を実現する。
論文 参考訳(メタデータ) (2024-07-05T08:08:22Z) - Multi-Genre Music Transformer -- Composing Full Length Musical Piece [0.0]
このプロジェクトの目的は,より適応的な学習プロセスを通じて楽曲の制作を学ぶマルチジェネラルトランスフォーマーを実装することである。
我々は多言語複合語データセットを構築し、このデータセットに基づいて訓練した線形変換器を実装した。
私たちはこのMulti-Genre Transformerと呼んでいます。
論文 参考訳(メタデータ) (2023-01-06T05:27:55Z) - Exploring the Efficacy of Pre-trained Checkpoints in Text-to-Music
Generation Task [86.72661027591394]
テキスト記述から完全で意味論的に一貫したシンボリック音楽の楽譜を生成する。
テキスト・音楽生成タスクにおける自然言語処理のための公開チェックポイントの有効性について検討する。
実験結果から, BLEUスコアと編集距離の類似性において, 事前学習によるチェックポイントの使用による改善が統計的に有意であることが示唆された。
論文 参考訳(メタデータ) (2022-11-21T07:19:17Z) - Comparision Of Adversarial And Non-Adversarial LSTM Music Generative
Models [2.569647910019739]
この研究は、MIDIデータに基づいて、リカレントニューラルネットワーク音楽作曲家の敵対的および非敵対的な訓練を実装し、比較する。
この評価は, 対人訓練がより審美的に楽しむ音楽を生み出すことを示唆している。
論文 参考訳(メタデータ) (2022-11-01T20:23:49Z) - Flat latent manifolds for music improvisation between human and machine [9.571383193449648]
相互即興化が新たな体験につながるような環境では,音楽生成アルゴリズムを人間の音楽家に対抗するものとみなす。
学習モデルでは、潜在空間の定量化により新しい音楽系列を生成する。
そこで我々は,音楽実験を通じて提案手法の実証的証拠を提供し,プロのドラマーと対話的なジャムセッションのためのモデルを展開した。
論文 参考訳(メタデータ) (2022-02-23T09:00:17Z) - Music-to-Dance Generation with Optimal Transport [48.92483627635586]
本稿では,音楽から3Dダンス振付を生成するためのMDOT-Net(Music-to-Dance with Optimal Transport Network)を提案する。
生成したダンス分布とグロモフ=ワッサーシュタイン距離の信頼度を評価するための最適な移動距離を導入し、ダンス分布と入力音楽の対応性を測定する。
論文 参考訳(メタデータ) (2021-12-03T09:37:26Z) - Incorporating Music Knowledge in Continual Dataset Augmentation for
Music Generation [69.06413031969674]
Aug-Genは、リソース制約のあるドメインでトレーニングされた任意の音楽生成システムに対するデータセット拡張の方法である。
我々は、Aug-Gen をトランスフォーマーベースのコラール生成に J.S. Bach のスタイルで適用し、これによりより長いトレーニングが可能となり、より優れた生成出力が得られることを示す。
論文 参考訳(メタデータ) (2020-06-23T21:06:15Z) - Dance Revolution: Long-Term Dance Generation with Music via Curriculum
Learning [55.854205371307884]
音楽条件付きダンス生成をシーケンス・ツー・シーケンスの学習問題として定式化する。
本稿では,長動き列生成における自己回帰モデルの誤り蓄積を軽減するための新しいカリキュラム学習戦略を提案する。
提案手法は,自動計測と人的評価において,既存の最先端技術よりも大幅に優れている。
論文 参考訳(メタデータ) (2020-06-11T00:08:25Z) - RL-Duet: Online Music Accompaniment Generation Using Deep Reinforcement
Learning [69.20460466735852]
本稿では,オンライン伴奏生成のための深層強化学習アルゴリズムを提案する。
提案アルゴリズムは人体に応答し,メロディック,ハーモニック,多種多様な機械部品を生成する。
論文 参考訳(メタデータ) (2020-02-08T03:53:52Z) - Learning Style-Aware Symbolic Music Representations by Adversarial
Autoencoders [9.923470453197657]
我々は,文脈情報を用いた変動型オートエンコーダを組み込むための,フレキシブルで自然な手段として,逆正則化を活用することに注力する。
第1回音楽Adversarial Autoencoder(MusAE)について紹介する。
我々のモデルは、標準変分オートエンコーダに基づく最先端モデルよりも高い再構成精度を有する。
論文 参考訳(メタデータ) (2020-01-15T18:07:20Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。