論文の概要: Generating Music with a Self-Correcting Non-Chronological Autoregressive
Model
- arxiv url: http://arxiv.org/abs/2008.08927v1
- Date: Tue, 18 Aug 2020 20:36:47 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-27 22:31:09.470088
- Title: Generating Music with a Self-Correcting Non-Chronological Autoregressive
Model
- Title(参考訳): 自己補正非時間的自己回帰モデルによる音楽生成
- Authors: Wayne Chi, Prachi Kumar, Suri Yaddanapudi, Rahul Suresh, Umut Isik
- Abstract要約: 本稿では,自己修正的,非時間的,自己回帰的モデルを用いた新しい音楽生成手法について述べる。
我々は音楽を編集イベントのシーケンスとして表現し、それぞれがノートの追加または削除を表す。
推論中、直接祖先サンプリングを用いて1回に1回の編集イベントを生成する。
- 参考スコア(独自算出の注目度): 6.289267097017553
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We describe a novel approach for generating music using a self-correcting,
non-chronological, autoregressive model. We represent music as a sequence of
edit events, each of which denotes either the addition or removal of a
note---even a note previously generated by the model. During inference, we
generate one edit event at a time using direct ancestral sampling. Our approach
allows the model to fix previous mistakes such as incorrectly sampled notes and
prevent accumulation of errors which autoregressive models are prone to have.
Another benefit is a finer, note-by-note control during human and AI
collaborative composition. We show through quantitative metrics and human
survey evaluation that our approach generates better results than orderless
NADE and Gibbs sampling approaches.
- Abstract(参考訳): 自己修正型非時間的自己回帰モデルを用いて音楽を生成する新しい手法について述べる。
我々は、音楽を編集イベントのシーケンスとして表現し、それぞれが、そのモデルが以前に生成したメモの追加または削除を表す。
推論中、直接祖先サンプリングを用いて1回に1回の編集イベントを生成する。
このアプローチでは、不正確なサンプルノートなどの以前のミスを修正し、自己回帰モデルが抱える可能性のあるエラーの蓄積を防ぐことができる。
もうひとつのメリットは、人間とAIのコラボレーション構成における、より細かなノートバイノートコントロールだ。
定量的指標と人的調査の結果から,無秩序なnadeおよびgibbsサンプリング手法よりも優れた結果が得られた。
関連論文リスト
- Autoregressive Speech Synthesis without Vector Quantization [135.4776759536272]
テキストから音声合成(TTS)のための新しい連続値トークンに基づく言語モデリング手法であるMELLEを提案する。
MELLEはテキスト条件から直接連続メル-スペクトログラムフレームを自動回帰生成する。
論文 参考訳(メタデータ) (2024-07-11T14:36:53Z) - Serenade: A Model for Human-in-the-loop Automatic Chord Estimation [1.6385815610837167]
そこで本研究では,Human-in-the-loopアプローチにより,モデルのみのアプローチよりも高調波解析性能が向上することを示す。
我々は,ポピュラー音楽のデータセットを用いてモデル評価を行い,本手法を用いることで,モデルのみのアプローチよりも高調波解析性能が向上することを示す。
論文 参考訳(メタデータ) (2023-10-17T11:31:29Z) - Incomplete Utterance Rewriting as Sequential Greedy Tagging [0.0]
モデル話者変動に対する話者認識埋め込みを導入する。
本モデルでは,従来の最先端モデルに匹敵する他のスコアを持つとともに,9つの復元スコアに対して最適な結果が得られる。
論文 参考訳(メタデータ) (2023-07-08T04:05:04Z) - SequenceMatch: Imitation Learning for Autoregressive Sequence Modelling with Backtracking [60.109453252858806]
MLE(Maxum-likelihood)の目的は、高品質なシーケンスを自動回帰的に生成する下流のユースケースと一致しない。
我々は、模倣学習(IL)問題としてシーケンス生成を定式化する。
これにより、自己回帰モデルによって生成されるシーケンスの分布とデータセットからのシーケンスとの差異を最小化できる。
得られた手法であるSequenceMatchは、敵の訓練やアーキテクチャの変更なしに実装できる。
論文 参考訳(メタデータ) (2023-06-08T17:59:58Z) - Deep Graph Reprogramming [112.34663053130073]
グラフニューラルネットワーク(GNN)に適したタスク再利用モデル「ディープグラフ再プログラミング」
本稿では,モデル再プログラミングパラダイムと並行して,革新的なデータ再プログラミングパラダイムを提案する。
論文 参考訳(メタデータ) (2023-04-28T02:04:29Z) - DiffusER: Discrete Diffusion via Edit-based Reconstruction [88.62707047517914]
DiffusERは、拡散モデルに基づくテキストの編集ベースの生成モデルである。
機械翻訳、要約、スタイル転送にまたがるいくつかのタスクにおいて、自動回帰モデルと競合する可能性がある。
また、標準的な自己回帰モデルに適さないような、他の種類の世代も実行することができる。
論文 参考訳(メタデータ) (2022-10-30T16:55:23Z) - Variable-Length Music Score Infilling via XLNet and Musically
Specialized Positional Encoding [37.725607373307646]
本稿では,楽譜埋込のための自己注意モデルを提案する。
それは、与えられた過去と将来の状況の間のギャップを埋めるポリフォニックな音楽シーケンスを生成する。
論文 参考訳(メタデータ) (2021-08-11T07:07:21Z) - Anomaly Detection of Time Series with Smoothness-Inducing Sequential
Variational Auto-Encoder [59.69303945834122]
Smoothness-Inducing Sequential Variational Auto-Encoder (SISVAE) モデルを提案する。
我々のモデルは、フレキシブルニューラルネットワークを用いて各タイムスタンプの平均と分散をパラメータ化する。
合成データセットと公開実世界のベンチマークの両方において,本モデルの有効性を示す。
論文 参考訳(メタデータ) (2021-02-02T06:15:15Z) - Unconditional Audio Generation with Generative Adversarial Networks and
Cycle Regularization [48.55126268721948]
本稿では,歌声のメル-スペクトログラムの無条件生成のためのGANモデルを提案する。
我々は、時間次元のいくつかの構造を誘導するために、ジェネレータに階層的アーキテクチャーを用いる。
歌声生成だけでなく,歌声生成のための新モデルの性能評価を行った。
論文 参考訳(メタデータ) (2020-05-18T08:35:16Z) - Continuous Melody Generation via Disentangled Short-Term Representations
and Structural Conditions [14.786601824794369]
ユーザが指定したシンボリックシナリオと過去の音楽コンテキストを組み合わせることで,メロディーを構成するモデルを提案する。
本モデルでは,8拍子の音符列を基本単位として長い旋律を生成でき,一貫したリズムパターン構造を他の特定の歌と共有することができる。
その結果,本モデルが生成する音楽は,顕著な繰り返し構造,豊かな動機,安定したリズムパターンを有する傾向が示唆された。
論文 参考訳(メタデータ) (2020-02-05T06:23:44Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。