論文の概要: An Introduction to Autoencoders
- arxiv url: http://arxiv.org/abs/2201.03898v1
- Date: Tue, 11 Jan 2022 11:55:32 GMT
- ステータス: 処理完了
- システム内更新日: 2022-01-12 17:32:36.215377
- Title: An Introduction to Autoencoders
- Title(参考訳): オートエンコーダ入門
- Authors: Umberto Michelucci
- Abstract要約: 本稿では,オートエンコーダの基本概念と数学について述べる。
まず、オートエンコーダの一般的な紹介から始め、出力層におけるアクティベーション関数の役割と損失関数について論じる。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: In this article, we will look at autoencoders. This article covers the
mathematics and the fundamental concepts of autoencoders. We will discuss what
they are, what the limitations are, the typical use cases, and we will look at
some examples. We will start with a general introduction to autoencoders, and
we will discuss the role of the activation function in the output layer and the
loss function. We will then discuss what the reconstruction error is. Finally,
we will look at typical applications as dimensionality reduction,
classification, denoising, and anomaly detection. This paper contains the notes
of a PhD-level lecture on autoencoders given in 2021.
- Abstract(参考訳): 本稿では,オートエンコーダについて述べる。
本稿では,オートエンコーダの基本概念と数学について述べる。
それらは何か、制限は何か、典型的なユースケースについて議論し、いくつかの例を見ていきます。
まず、オートエンコーダの一般的な紹介から始め、出力層におけるアクティベーション関数の役割と損失関数について議論する。
次に、再構築エラーとは何かについて議論する。
最後に, 典型的な応用として, 次元の縮小, 分類, 分節化, 異常検出について考察する。
本論文は2021年に与えられたオートエンコーダに関する博士号レベルの講義のノートを含む。
関連論文リスト
- Triple-Encoders: Representations That Fire Together, Wire Together [51.15206713482718]
コントラスト学習(Contrastive Learning)は、バイエンコーダを介して発話間の相対距離を埋め込み空間に符号化する表現学習法である。
本研究では,これら独立に符号化された発話から分散発話混合物を効率よく計算する三重エンコーダを提案する。
トリプルエンコーダはバイエンコーダよりも大幅に改善され、シングルベクトル表現モデルよりもゼロショットの一般化が向上することがわかった。
論文 参考訳(メタデータ) (2024-02-19T18:06:02Z) - Rethinking Patch Dependence for Masked Autoencoders [92.37365660775171]
マスク付きオートエンコーダ(MAE)の復号機構におけるパッチ間依存関係の再検討
我々は,クロスアテンション・マスケッド・オートエンコーダ(CrossMAE)という新しい事前学習フレームワークを提案する。
論文 参考訳(メタデータ) (2024-01-25T18:49:57Z) - Decoder-Only or Encoder-Decoder? Interpreting Language Model as a
Regularized Encoder-Decoder [75.03283861464365]
seq2seqタスクは、与えられた入力ソースシーケンスに基づいてターゲットシーケンスを生成することを目的としている。
伝統的に、seq2seqタスクのほとんどはエンコーダによって解決され、ソースシーケンスとデコーダをエンコードしてターゲットテキストを生成する。
最近、デコーダのみの言語モデルをseq2seqタスクに直接適用する、多くの新しいアプローチが出現しました。
論文 参考訳(メタデータ) (2023-04-08T15:44:29Z) - Deep Nonparametric Estimation of Intrinsic Data Structures by Chart
Autoencoders: Generalization Error and Robustness [11.441464617936173]
グラフの集合上の低次元の潜在特徴にデータをエンコードするために、チャートオートエンコーダを用いる。
オートエンコーダを訓練することにより、チャートオートエンコーダは入力データを正常な雑音で効果的に識別できることを示す。
特別な場合として、データ多様体が大域的パラメトリゼーションを持つ限り、我々の理論は古典的自己エンコーダにも当てはまる。
論文 参考訳(メタデータ) (2023-03-17T10:01:32Z) - On a Mechanism Framework of Autoencoders [0.0]
本稿では,オートエンコーダの機構に関する理論的枠組みを提案する。
ReLUオートエンコーダの結果は、いくつかの非ReLUケースに一般化される。
PCAや決定木と比較して,次元の縮小と分類における(一般化された)オートエンコーダの利点が示された。
論文 参考訳(メタデータ) (2022-08-15T03:51:40Z) - Masked Autoencoders that Listen [79.99280830830854]
本稿では,画像ベースMasked Autoencoders(MAE)の音声スペクトログラムからの自己教師型表現学習への簡単な拡張について検討する。
MAEにおけるTransformer encoder-decoderの設計に続いて、Audio-MAEはまず、ハイマスキング比でオーディオスペクトログラムパッチを符号化し、エンコーダ層を介して非マスキングトークンのみを供給します。
次にデコーダは、入力スペクトログラムを再構築するために、マスクトークンでパッドされたエンコードされたコンテキストを再注文し、デコードする。
論文 参考訳(メタデータ) (2022-07-13T17:59:55Z) - Bag-of-Vectors Autoencoders for Unsupervised Conditional Text Generation [18.59238482225795]
自動エンコーダの埋め込み空間における写像を学習するために,Mai et al. の提案する Emb2Emb 法を拡張した。
本稿では,Bag-of-AEs Autoencoders (BoV-AEs)を提案する。
これにより、標準的なオートエンコーダよりも長いテキストをエンコードし、再構築することができる。
論文 参考訳(メタデータ) (2021-10-13T19:30:40Z) - Revisiting Role of Autoencoders in Adversarial Settings [32.22707594954084]
本稿では,自己エンコーダの対向ロバスト性の性質について述べる。
我々は,自己エンコーダの対角強靭性の発見は,今後の敵防衛研究や応用の手がかりとなると信じている。
論文 参考訳(メタデータ) (2020-05-21T16:01:23Z) - On Sparsifying Encoder Outputs in Sequence-to-Sequence Models [90.58793284654692]
我々はTransformerをテストベッドとして、エンコーダとデコーダの間にあるゲートの層を導入します。
ゲートは、パリシティ誘導L0ペナルティの期待値を用いて正規化される。
このスペーサー化が2つの機械翻訳と2つの要約タスクに与える影響について検討する。
論文 参考訳(メタデータ) (2020-04-24T16:57:52Z) - Autoencoders [43.991924654575975]
オートエンコーダ(autoencoder)は、主に入力を圧縮された意味のある表現にエンコードし、再構成された入力が元の入力と可能な限り類似するように復号するように設計されたニューラルネットワークの特定のタイプである。
この章は、主に現在使われている様々な種類のオートエンコーダについて調査する。
論文 参考訳(メタデータ) (2020-03-12T19:38:47Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。