論文の概要: Vector Quantized Contrastive Predictive Coding for Template-based Music
Generation
- arxiv url: http://arxiv.org/abs/2004.10120v1
- Date: Tue, 21 Apr 2020 15:58:17 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-11 07:55:51.114574
- Title: Vector Quantized Contrastive Predictive Coding for Template-based Music
Generation
- Title(参考訳): テンプレートに基づく音楽生成のためのベクトル量子化コントラスト予測符号化
- Authors: Ga\"etan Hadjeres and L\'eopold Crestel
- Abstract要約: 本稿では,トークンを基本単位に分類できる離散列の変種を生成するフレキシブルな手法を提案する。
本稿では,これらの圧縮表現を用いてテンプレートシーケンスの変動を,Transformerアーキテクチャの適切な注意パターンを用いて生成する方法を示す。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In this work, we propose a flexible method for generating variations of
discrete sequences in which tokens can be grouped into basic units, like
sentences in a text or bars in music. More precisely, given a template
sequence, we aim at producing novel sequences sharing perceptible similarities
with the original template without relying on any annotation; so our problem of
generating variations is intimately linked to the problem of learning relevant
high-level representations without supervision. Our contribution is two-fold:
First, we propose a self-supervised encoding technique, named Vector Quantized
Contrastive Predictive Coding which allows to learn a meaningful assignment of
the basic units over a discrete set of codes, together with mechanisms allowing
to control the information content of these learnt discrete representations.
Secondly, we show how these compressed representations can be used to generate
variations of a template sequence by using an appropriate attention pattern in
the Transformer architecture. We illustrate our approach on the corpus of J.S.
Bach chorales where we discuss the musical meaning of the learnt discrete codes
and show that our proposed method allows to generate coherent and high-quality
variations of a given template.
- Abstract(参考訳): 本研究では,テキスト中の文や音楽のバーといった基本単位にトークンをグループ化できる離散シーケンスの変動を生成する柔軟な手法を提案する。
より正確には、テンプレートシーケンスを与えられた場合、我々は、アノテーションを使わずに、元のテンプレートと知覚可能な類似性を共有する新しいシーケンスを作成することを目的としている。
まず,これらの学習された離散表現の情報内容を制御可能なメカニズムとともに,基本単位の離散的なコード集合上で有意義な割り当てを学習することのできる,ベクトル量子化予測符号化という自己指導型符号化手法を提案する。
次に,これらの圧縮表現を用いて,トランスフォーマーアーキテクチャにおける適切な注意パターンを用いてテンプレート列のバリエーションを生成する方法を示す。
本稿では,J.S. Bach合唱団のコーパスにおいて,学習した離散符号の音楽的意味を議論し,提案手法が与えられたテンプレートのコヒーレントかつ高品質なバリエーションを生成できることを示す。
関連論文リスト
- σ-GPTs: A New Approach to Autoregressive Models [19.84252724050016]
出力に位置エンコーディングを追加するだけで、この順序をオンザフライ・イン・サンプルで変調できることを示す。
我々は,言語モデリング,パス解決,航空機の垂直速度予測など,様々な領域にわたる手法の評価を行った。
論文 参考訳(メタデータ) (2024-04-15T08:22:47Z) - Disentanglement via Latent Quantization [60.37109712033694]
本研究では,組織化された潜在空間からの符号化と復号化に向けた帰納的バイアスを構築する。
本稿では,基本データレコーダ (vanilla autoencoder) と潜時再構成 (InfoGAN) 生成モデルの両方に追加することで,このアプローチの広範な適用性を実証する。
論文 参考訳(メタデータ) (2023-05-28T06:30:29Z) - Attributable and Scalable Opinion Summarization [79.87892048285819]
我々は、頻繁なエンコーディングを復号することで抽象的な要約を生成し、同じ頻繁なエンコーディングに割り当てられた文を選択して抽出的な要約を生成する。
本手法は,要約プロセスの一部として要約を生成するために使用される文を同定するため,帰属的手法である。
なぜなら、アグリゲーションはトークンの長いシーケンスではなく、潜在空間で実行されるからである。
論文 参考訳(メタデータ) (2023-05-19T11:30:37Z) - A Contextual Latent Space Model: Subsequence Modulation in Melodic
Sequence [0.0]
音楽やテキストなどのシーケンスの生成モデルは、周囲のコンテキストシーケンスを前提として、サブシーケンスのみを編集することができる。
本稿では,ユーザが生成空間の方向感覚でサブシーケンス生成を探索できるように,コンテキスト潜在空間モデル(M)を提案する。
文脈インフォームド事前デコーダはCLSMの生成モデルを構成し、文脈位置インフォームドは推論モデルである。
論文 参考訳(メタデータ) (2021-11-23T07:51:39Z) - Style Equalization: Unsupervised Learning of Controllable Generative
Sequence Models [23.649790871960644]
制御可能な生成系列モデルの教師なし学習において発生するトレーニング-推論ミスマッチに対処する。
スタイル等化と呼ばれるスタイル変換モジュールを導入することで、異なるコンテンツとスタイルサンプルを使用したトレーニングを可能にします。
我々のモデルは、実際のデータと類似した平均的な意見スコアを持つ最先端スタイルの複製を実現する。
論文 参考訳(メタデータ) (2021-10-06T16:17:57Z) - Structured Reordering for Modeling Latent Alignments in Sequence
Transduction [86.94309120789396]
本稿では,分離可能な置換の辺りを正確に推定する効率的な動的プログラミングアルゴリズムを提案する。
結果のSeq2seqモデルは、合成問題やNLPタスクの標準モデルよりも体系的な一般化が優れている。
論文 参考訳(メタデータ) (2021-06-06T21:53:54Z) - Cross-Thought for Sentence Encoder Pre-training [89.32270059777025]
Cross-Thoughtは、事前トレーニングシーケンスエンコーダに対する新しいアプローチである。
我々は、Transformerベースのシーケンスエンコーダを、多数の短いシーケンスに対してトレーニングする。
質問応答とテキストのエンコーダタスクの実験は、事前学習したエンコーダが最先端のエンコーダより優れていることを示す。
論文 参考訳(メタデータ) (2020-10-07T21:02:41Z) - Neural Syntactic Preordering for Controlled Paraphrase Generation [57.5316011554622]
私たちの研究は、構文変換を使用して、ソース文をソフトに"リオーダー"し、神経パラフレージングモデルをガイドします。
まず、入力文が与えられた場合、エンコーダ・デコーダモデルを用いて、実行可能な構文再構成のセットを導出する。
次に、提案した各再構成を用いて位置埋め込みのシーケンスを生成し、最終的なエンコーダ-デコーダパラフレーズモデルが特定の順序でソース語に従属することを奨励する。
論文 参考訳(メタデータ) (2020-05-05T09:02:25Z) - Improve Variational Autoencoder for Text Generationwith Discrete Latent
Bottleneck [52.08901549360262]
変分オートエンコーダ(VAE)は、エンドツーエンドの表現学習において必須のツールである。
VAEは強い自己回帰デコーダで潜伏変数を無視する傾向がある。
よりコンパクトな潜在空間において暗黙的な潜在特徴マッチングを強制する原理的アプローチを提案する。
論文 参考訳(メタデータ) (2020-04-22T14:41:37Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。