論文の概要: Are We Using Autoencoders in a Wrong Way?
- arxiv url: http://arxiv.org/abs/2309.01532v1
- Date: Mon, 4 Sep 2023 11:22:43 GMT
- ステータス: 処理完了
- システム内更新日: 2023-09-06 18:53:42.398869
- Title: Are We Using Autoencoders in a Wrong Way?
- Title(参考訳): 私たちは間違った方法でオートエンコーダを使っているか?
- Authors: Gabriele Martino, Davide Moroni, Massimo Martinelli
- Abstract要約: オートエンコーダは次元減少、異常検出、特徴抽出に使用される。
潜在空間の形状を変更する不完全なオートエンコーダの標準トレーニングを再考した。
また,データセット全体からランダムサンプルを再構成する場合の潜伏空間の挙動についても検討した。
- 参考スコア(独自算出の注目度): 3.110260251019273
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Autoencoders are certainly among the most studied and used Deep Learning
models: the idea behind them is to train a model in order to reconstruct the
same input data. The peculiarity of these models is to compress the information
through a bottleneck, creating what is called Latent Space. Autoencoders are
generally used for dimensionality reduction, anomaly detection and feature
extraction. These models have been extensively studied and updated, given their
high simplicity and power. Examples are (i) the Denoising Autoencoder, where
the model is trained to reconstruct an image from a noisy one; (ii) Sparse
Autoencoder, where the bottleneck is created by a regularization term in the
loss function; (iii) Variational Autoencoder, where the latent space is used to
generate new consistent data. In this article, we revisited the standard
training for the undercomplete Autoencoder modifying the shape of the latent
space without using any explicit regularization term in the loss function. We
forced the model to reconstruct not the same observation in input, but another
one sampled from the same class distribution. We also explored the behaviour of
the latent space in the case of reconstruction of a random sample from the
whole dataset.
- Abstract(参考訳): その背景にある考え方は、同じ入力データを再構築するためにモデルをトレーニングすることだ。
これらのモデルの特徴はボトルネックを通じて情報を圧縮し、遅延空間と呼ばれるものを作成することである。
オートエンコーダは一般に次元減少、異常検出、特徴抽出に使用される。
これらのモデルは、そのシンプルさとパワーから、広く研究され、更新されている。
例を挙げると
(i)ノイズの多い画像から画像を復元するためにモデルを訓練した鳴り物入りオートエンコーダ
二 損失関数の正規化項によりボトルネックが生成されるスパースオートエンコーダ
(iii)変分オートエンコーダは、新しい一貫性のあるデータを生成するために潜在空間を使用する。
本稿では、損失関数に明示的な正規化項を用いることなく、潜在空間の形状を変更する不完全なオートエンコーダの標準トレーニングを再考する。
我々は、入力で同じ観測結果ではなく、同じクラス分布からサンプリングされた別のモデルに再構成を強制した。
また,データセット全体からランダムサンプルを再構成する場合の潜伏空間の挙動についても検討した。
関連論文リスト
- Generative Autoencoding of Dropout Patterns [11.965844936801801]
本稿では,デ暗号オートエンコーダと呼ばれる生成モデルを提案する。
トレーニングデータセットの各データポイントに、ユニークなランダムなドロップアウトパターンを割り当てます。
次に、オートエンコーダをトレーニングして、このパターンを符号化する情報として、対応するデータポイントを再構築する。
論文 参考訳(メタデータ) (2023-10-03T00:54:13Z) - Disentanglement via Latent Quantization [60.37109712033694]
本研究では,組織化された潜在空間からの符号化と復号化に向けた帰納的バイアスを構築する。
本稿では,基本データレコーダ (vanilla autoencoder) と潜時再構成 (InfoGAN) 生成モデルの両方に追加することで,このアプローチの広範な適用性を実証する。
論文 参考訳(メタデータ) (2023-05-28T06:30:29Z) - Variational Diffusion Auto-encoder: Latent Space Extraction from
Pre-trained Diffusion Models [0.0]
可変オートエンコーダ(VAE)は、生成された画像の品質の問題に直面し、しばしば目立った曖昧さを示す。
この問題は、条件付きデータ分布を近似する非現実的な仮定である $p(textbfx | textbfz)$ が等方ガウス的であることに由来する。
本稿では,エンコーダを最適化することにより,既存の拡散モデルから潜在空間を抽出し,限界データのログ化を最大化する方法について述べる。
論文 参考訳(メタデータ) (2023-04-24T14:44:47Z) - Learning to Drop Out: An Adversarial Approach to Training Sequence VAEs [16.968490007064872]
シーケンシャルデータに可変オートエンコーダ(VAE)を適用することで、シーケンス生成、操作、構造化表現学習を制御する方法が提供される。
理論的には、これは遅延空間を利用して補償されるデコーダ入力によって提供されるポイントワイドな相互情報を除去することを示す。
標準テキストベンチマークデータセットの均一なドロップアウトと比較して、我々のターゲットとなるアプローチは、シーケンス性能と潜時空間でキャプチャされた情報の両方を増大させる。
論文 参考訳(メタデータ) (2022-09-26T11:21:19Z) - Self-Supervised Training with Autoencoders for Visual Anomaly Detection [61.62861063776813]
我々は, 正規サンプルの分布を低次元多様体で支持する異常検出において, 特定のユースケースに焦点を当てた。
我々は、訓練中に識別情報を活用する自己指導型学習体制に適応するが、通常の例のサブ多様体に焦点をあてる。
製造領域における視覚異常検出のための挑戦的なベンチマークであるMVTec ADデータセットで、最先端の新たな結果を達成する。
論文 参考訳(メタデータ) (2022-06-23T14:16:30Z) - Anomaly Detection with Prototype-Guided Discriminative Latent Embeddings [29.93983580779689]
本論文では,通常のデータの識別的プロトタイプを用いて映像フレームを再構築する異常検出手法を提案する。
このようにして、モデルは通常のイベントの再構築を支持し、異常なイベントの再構築を歪めます。
本手法の有効性を3つのベンチマークデータセットで評価し,提案手法が最先端を上回っていることを示す。
論文 参考訳(メタデータ) (2021-04-30T12:16:52Z) - Anytime Sampling for Autoregressive Models via Ordered Autoencoding [88.01906682843618]
自動回帰モデルは画像生成や音声生成などのタスクに広く使われている。
これらのモデルのサンプリングプロセスは割り込みを許さず、リアルタイムの計算資源に適応できない。
いつでもサンプリングできる新しい自動回帰モデルファミリーを提案します。
論文 参考訳(メタデータ) (2021-02-23T05:13:16Z) - Autoencoding Variational Autoencoder [56.05008520271406]
我々は,この行動が学習表現に与える影響と,自己整合性の概念を導入することでそれを修正する結果について検討する。
自己整合性アプローチで訓練されたエンコーダは、敵攻撃による入力の摂動に対して頑健な(無神経な)表現につながることを示す。
論文 参考訳(メタデータ) (2020-12-07T14:16:14Z) - Automatic Recall Machines: Internal Replay, Continual Learning and the
Brain [104.38824285741248]
ニューラルネットワークのリプレイには、記憶されたサンプルを使ってシーケンシャルなデータのトレーニングが含まれる。
本研究では,これらの補助サンプルをフライ時に生成する手法を提案する。
代わりに、評価されたモデル自体内の学習したサンプルの暗黙の記憶が利用されます。
論文 参考訳(メタデータ) (2020-06-22T15:07:06Z) - Unsupervised Anomaly Detection with Adversarial Mirrored AutoEncoders [51.691585766702744]
本稿では,識別器のミラー化ワッサースタイン損失を利用して,よりセマンティックレベルの再構築を行う逆自動エンコーダの変種を提案する。
我々は,再建基準の代替として,異常スコアの代替尺度を提案した。
提案手法は,OOD検出ベンチマークにおける異常検出の最先端手法よりも優れている。
論文 参考訳(メタデータ) (2020-03-24T08:26:58Z) - Iterative energy-based projection on a normal data manifold for anomaly
localization [3.785123406103385]
本稿では,オートエンコーダを学習した正規データ多様体上で異常データを投影する手法を提案する。
オートエンコーダの入力を反復的に更新することにより、オートエンコーダボトルネックに起因する高周波情報の損失を回避できる。
論文 参考訳(メタデータ) (2020-02-10T13:35:41Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。