論文の概要: Conditioning Autoencoder Latent Spaces for Real-Time Timbre
Interpolation and Synthesis
- arxiv url: http://arxiv.org/abs/2001.11296v1
- Date: Thu, 30 Jan 2020 13:06:26 GMT
- ステータス: 処理完了
- システム内更新日: 2023-01-05 12:21:40.097628
- Title: Conditioning Autoencoder Latent Spaces for Real-Time Timbre
Interpolation and Synthesis
- Title(参考訳): リアルタイム音色補間合成のための条件付きオートエンコーダ潜時空間
- Authors: Joseph T Colonel, Sam Keene
- Abstract要約: オートエンコーダのボトルネックで使用されるアクティベーション関数が,トレーニングコーパスの埋め込みをいかに分散するかを示す。
本稿では,入力拡張と潜時空間条件の両方に使用する1ホット符号化クロマ特徴ベクトルを提案する。
PythonのオープンソースでリアルタイムなTimbreアルゴリズムの概要と共有が提供されている。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We compare standard autoencoder topologies' performances for timbre
generation. We demonstrate how different activation functions used in the
autoencoder's bottleneck distributes a training corpus's embedding. We show
that the choice of sigmoid activation in the bottleneck produces a more bounded
and uniformly distributed embedding than a leaky rectified linear unit
activation. We propose a one-hot encoded chroma feature vector for use in both
input augmentation and latent space conditioning. We measure the performance of
these networks, and characterize the latent embeddings that arise from the use
of this chroma conditioning vector. An open source, real-time timbre synthesis
algorithm in Python is outlined and shared.
- Abstract(参考訳): 音色生成のための標準オートエンコーダトポロジの性能を比較する。
オートエンコーダのボトルネックで使用されるアクティベーション関数が,トレーニングコーパスの埋め込みをいかに分散するかを示す。
ボトルネックにおけるシグモイドの活性化の選択は、漏れやすい整合線形単位の活性化よりも、より有界で均一に分散された埋め込みをもたらすことを示す。
本稿では,入力拡張と潜時空間条件の両方に使用する1ホット符号化クロマ特徴ベクトルを提案する。
これらのネットワークの性能を測定し,このクロマ条件ベクトルを用いて発生する潜伏埋め込みを特徴付ける。
pythonのオープンソースのリアルタイムな音色合成アルゴリズムを概説し、共有する。
関連論文リスト
- Context Compression for Auto-regressive Transformers with Sentinel
Tokens [37.07722536907739]
本稿では,特定のトークンの中間活性化をコンパクトに段階的に圧縮できるプラグイン・アンド・プレイ方式を提案する。
ドメイン内言語モデリングとゼロショットオープンエンド文書生成の両方の実験は、我々のアプローチの利点を実証している。
論文 参考訳(メタデータ) (2023-10-12T09:18:19Z) - NAF: Neural Attenuation Fields for Sparse-View CBCT Reconstruction [79.13750275141139]
本稿では,スパースビューCBCT再構成のための新規かつ高速な自己教師型ソリューションを提案する。
所望の減衰係数は、3次元空間座標の連続関数として表現され、完全に接続されたディープニューラルネットワークによってパラメータ化される。
ハッシュ符号化を含む学習ベースのエンコーダが採用され、ネットワークが高周波の詳細をキャプチャするのに役立つ。
論文 参考訳(メタデータ) (2022-09-29T04:06:00Z) - String-based Molecule Generation via Multi-decoder VAE [56.465033997245776]
可変オートエンコーダ(VAE)による文字列型分子生成の問題点について検討する。
本稿では,そのタスクに対するVAEの性能を改善するための,シンプルで効果的なアイデアを提案する。
実験では,提案するVAEモデルを用いて,領域外分布からサンプルを生成する。
論文 参考訳(メタデータ) (2022-08-23T03:56:30Z) - Variable Bitrate Neural Fields [75.24672452527795]
本稿では,特徴格子を圧縮し,メモリ消費を最大100倍に削減する辞書手法を提案する。
辞書の最適化をベクトル量子化オートデコーダ問題として定式化し、直接監督できない空間において、エンドツーエンドの離散神経表現を学習する。
論文 参考訳(メタデータ) (2022-06-15T17:58:34Z) - Unsupervised Disentanglement with Tensor Product Representations on the
Torus [78.6315881294899]
オートエンコーダで表現を学習する現在の方法では、ほとんどベクターを潜在表現として用いている。
本研究では,この目的のためにテンソル積構造を用いることを提案する。
通常分布する特徴を対象とする従来の変分法とは対照的に,表現の潜在空間は単位円の集合上に均一に分布する。
論文 参考訳(メタデータ) (2022-02-13T04:23:12Z) - Diffusion bridges vector quantized Variational AutoEncoders [0.0]
我々のモデルは,ミニイメージネットデータセットに先行する自己回帰と競合することを示す。
我々のフレームワークは、標準のVQ-VAEを拡張し、エンドツーエンドのトレーニングを可能にします。
論文 参考訳(メタデータ) (2022-02-10T08:38:12Z) - Autoencoding Variational Autoencoder [56.05008520271406]
我々は,この行動が学習表現に与える影響と,自己整合性の概念を導入することでそれを修正する結果について検討する。
自己整合性アプローチで訓練されたエンコーダは、敵攻撃による入力の摂動に対して頑健な(無神経な)表現につながることを示す。
論文 参考訳(メタデータ) (2020-12-07T14:16:14Z) - Autoencoder Image Interpolation by Shaping the Latent Space [12.482988592988868]
オートエンコーダは、異なるタイプのデータセットを特徴付ける基礎となる要因を計算するための効果的なアプローチである。
トレーニング画像と整合した多様体に従うために潜在表現を形作る正規化手法を提案する。
論文 参考訳(メタデータ) (2020-08-04T12:32:54Z) - Gradient Origin Networks [8.952627620898074]
本稿では,エンコーダを使わずに潜在表現を素早く学習できる新しい生成モデルを提案する。
実験により,提案手法は自己エンコーダよりも高速に収束し,パラメータの半分を必要としながら再構成誤差が著しく低いことがわかった。
論文 参考訳(メタデータ) (2020-07-06T15:00:11Z) - Autoencoding Neural Networks as Musical Audio Synthesizers [0.0]
自動符号化ニューラルネットワークを用いた音声合成手法を提案する。
オートエンコーダは、短時間のフーリエ変換フレームの圧縮と再構成を訓練する。
論文 参考訳(メタデータ) (2020-04-27T20:58:03Z) - Improve Variational Autoencoder for Text Generationwith Discrete Latent
Bottleneck [52.08901549360262]
変分オートエンコーダ(VAE)は、エンドツーエンドの表現学習において必須のツールである。
VAEは強い自己回帰デコーダで潜伏変数を無視する傾向がある。
よりコンパクトな潜在空間において暗黙的な潜在特徴マッチングを強制する原理的アプローチを提案する。
論文 参考訳(メタデータ) (2020-04-22T14:41:37Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。