論文の概要: Autoencoders
- arxiv url: http://arxiv.org/abs/2003.05991v2
- Date: Sat, 3 Apr 2021 11:18:12 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-24 13:18:42.161854
- Title: Autoencoders
- Title(参考訳): オートエンコーダ
- Authors: Dor Bank, Noam Koenigstein, Raja Giryes
- Abstract要約: オートエンコーダ(autoencoder)は、主に入力を圧縮された意味のある表現にエンコードし、再構成された入力が元の入力と可能な限り類似するように復号するように設計されたニューラルネットワークの特定のタイプである。
この章は、主に現在使われている様々な種類のオートエンコーダについて調査する。
- 参考スコア(独自算出の注目度): 43.991924654575975
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: An autoencoder is a specific type of a neural network, which is mainly
designed to encode the input into a compressed and meaningful representation,
and then decode it back such that the reconstructed input is similar as
possible to the original one. This chapter surveys the different types of
autoencoders that are mainly used today. It also describes various applications
and use-cases of autoencoders.
- Abstract(参考訳): オートエンコーダ(autoencoder)は、主に入力を圧縮された意味のある表現にエンコードし、再構成された入力が元の入力と可能な限り類似するように復号するように設計されたニューラルネットワークの一種である。
この章は、現在主に使われている様々な種類のオートエンコーダを調査している。
また、オートエンコーダの様々なアプリケーションやユースケースも記述している。
関連論文リスト
- Triple-Encoders: Representations That Fire Together, Wire Together [51.15206713482718]
コントラスト学習(Contrastive Learning)は、バイエンコーダを介して発話間の相対距離を埋め込み空間に符号化する表現学習法である。
本研究では,これら独立に符号化された発話から分散発話混合物を効率よく計算する三重エンコーダを提案する。
トリプルエンコーダはバイエンコーダよりも大幅に改善され、シングルベクトル表現モデルよりもゼロショットの一般化が向上することがわかった。
論文 参考訳(メタデータ) (2024-02-19T18:06:02Z) - Decoder-Only or Encoder-Decoder? Interpreting Language Model as a
Regularized Encoder-Decoder [75.03283861464365]
seq2seqタスクは、与えられた入力ソースシーケンスに基づいてターゲットシーケンスを生成することを目的としている。
伝統的に、seq2seqタスクのほとんどはエンコーダによって解決され、ソースシーケンスとデコーダをエンコードしてターゲットテキストを生成する。
最近、デコーダのみの言語モデルをseq2seqタスクに直接適用する、多くの新しいアプローチが出現しました。
論文 参考訳(メタデータ) (2023-04-08T15:44:29Z) - On a Mechanism Framework of Autoencoders [0.0]
本稿では,オートエンコーダの機構に関する理論的枠組みを提案する。
ReLUオートエンコーダの結果は、いくつかの非ReLUケースに一般化される。
PCAや決定木と比較して,次元の縮小と分類における(一般化された)オートエンコーダの利点が示された。
論文 参考訳(メタデータ) (2022-08-15T03:51:40Z) - Diffsound: Discrete Diffusion Model for Text-to-sound Generation [78.4128796899781]
本稿では,テキストエンコーダ,ベクトル量子化変分自動符号化(VQ-VAE),デコーダ,ボコーダからなる新しいテキスト音声生成フレームワークを提案する。
フレームワークは、まず、デコーダを使用して、テキストエンコーダから抽出したテキスト特徴をVQ-VAEの助けを借りてメルスペクトルに転送し、次いで、ボコーダを使用して生成されたメルスペクトルを波形に変換する。
論文 参考訳(メタデータ) (2022-07-20T15:41:47Z) - An Introduction to Autoencoders [0.0]
本稿では,オートエンコーダの基本概念と数学について述べる。
まず、オートエンコーダの一般的な紹介から始め、出力層におけるアクティベーション関数の役割と損失関数について論じる。
論文 参考訳(メタデータ) (2022-01-11T11:55:32Z) - Bag-of-Vectors Autoencoders for Unsupervised Conditional Text Generation [18.59238482225795]
自動エンコーダの埋め込み空間における写像を学習するために,Mai et al. の提案する Emb2Emb 法を拡張した。
本稿では,Bag-of-AEs Autoencoders (BoV-AEs)を提案する。
これにより、標準的なオートエンコーダよりも長いテキストをエンコードし、再構築することができる。
論文 参考訳(メタデータ) (2021-10-13T19:30:40Z) - DeepA: A Deep Neural Analyzer For Speech And Singing Vocoding [71.73405116189531]
本稿では,従来のボコーダで定義されている音声をエミュレートする入力音声から,F0と音節/音節/音節のエンコーディングを抽出するニューラルボコーダを提案する。
ディープ・ニューラル・アナライザは学習可能であるため、信号の再構成と操作がより正確であり、音声から歌への一般化が期待できる。
論文 参考訳(メタデータ) (2021-10-13T01:39:57Z) - Dynamic Neural Representational Decoders for High-Resolution Semantic
Segmentation [98.05643473345474]
動的ニューラル表現デコーダ(NRD)と呼ばれる新しいデコーダを提案する。
エンコーダの出力上の各位置がセマンティックラベルの局所的なパッチに対応するので、この研究では、これらの局所的なパッチをコンパクトなニューラルネットワークで表現する。
このニューラル表現により、意味ラベル空間に先行する滑らかさを活用することができ、デコーダをより効率的にすることができる。
論文 参考訳(メタデータ) (2021-07-30T04:50:56Z) - Cascade Decoders-Based Autoencoders for Image Reconstruction [2.924868086534434]
本稿では,カスケードデコーダを用いたオートエンコーダの画像再構成を目的とする。
提案したシリアルデコーダベースのオートエンコーダは、マルチレベルデコーダのアーキテクチャと関連する最適化アルゴリズムを含む。
提案するオートエンコーダは,画像再構成の性能において,従来のオートエンコーダよりも優れていた。
論文 参考訳(メタデータ) (2021-06-29T23:40:54Z) - A Showcase of the Use of Autoencoders in Feature Learning Applications [11.329636084818778]
オートエンコーダは、人工ニューラルネットワークに基づくデータ表現学習のための技術である。
この作業では、これらのアプリケーションを示し、オートエンコーダの設計とトレーニングに簡単に使えるインターフェースを備えたRパッケージを使ったコードサンプルを含む、オートエンコーダの動作方法の詳細を提供する。
論文 参考訳(メタデータ) (2020-05-08T23:56:26Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。