論文の概要: Reducing Redundancy in the Bottleneck Representation of the Autoencoders
- arxiv url: http://arxiv.org/abs/2202.04629v1
- Date: Wed, 9 Feb 2022 18:48:02 GMT
- ステータス: 処理完了
- システム内更新日: 2022-02-10 16:04:22.448735
- Title: Reducing Redundancy in the Bottleneck Representation of the Autoencoders
- Title(参考訳): オートエンコーダのボトルネック表現における冗長性の低減
- Authors: Firas Laakom, Jenni Raitoharju, Alexandros Iosifidis and Moncef
Gabbouj
- Abstract要約: オートエンコーダは教師なしニューラルネットワークの一種であり、様々なタスクを解くのに使用できる。
本稿では,ボトルネック表現における特徴冗長性を明示的に罰する手法を提案する。
我々は,3つの異なるデータセットを用いた次元削減,MNISTデータセットを用いた画像圧縮,ファッションMNISTを用いた画像デノナイズという,さまざまなタスクにまたがってアプローチを検証した。
- 参考スコア(独自算出の注目度): 98.78384185493624
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Autoencoders are a type of unsupervised neural networks, which can be used to
solve various tasks, e.g., dimensionality reduction, image compression, and
image denoising. An AE has two goals: (i) compress the original input to a
low-dimensional space at the bottleneck of the network topology using an
encoder, (ii) reconstruct the input from the representation at the bottleneck
using a decoder. Both encoder and decoder are optimized jointly by minimizing a
distortion-based loss which implicitly forces the model to keep only those
variations of input data that are required to reconstruct the and to reduce
redundancies. In this paper, we propose a scheme to explicitly penalize feature
redundancies in the bottleneck representation. To this end, we propose an
additional loss term, based on the pair-wise correlation of the neurons, which
complements the standard reconstruction loss forcing the encoder to learn a
more diverse and richer representation of the input. We tested our approach
across different tasks: dimensionality reduction using three different dataset,
image compression using the MNIST dataset, and image denoising using fashion
MNIST. The experimental results show that the proposed loss leads consistently
to superior performance compared to the standard AE loss.
- Abstract(参考訳): オートエンコーダ(autoencoder)は教師なしニューラルネットワークの一種であり、次元の縮小、画像圧縮、画像のデノージングなど、さまざまなタスクの解決に使用できる。
AEには2つの目標があります。
(i)エンコーダを用いてネットワークトポロジーのボトルネック時に、元の入力を低次元空間に圧縮する。
(ii)デコーダを用いてボトルネックの表現から入力を再構成する。
エンコーダとデコーダは共に、歪みに基づく損失を最小限に抑え、モデルに、再構成と冗長性の低減に必要な入力データのバリエーションだけを暗黙的に保持させる。
本稿では,ボトルネック表現における特徴冗長性を明示する手法を提案する。
そこで本研究では,エンコーダがより多様でリッチな入力表現を学習させる標準的な再構成損失を補完する,ニューロンの対方向相関に基づく新たな損失項を提案する。
我々は,3つの異なるデータセットを用いた次元削減,MNISTデータセットを用いた画像圧縮,ファッションMNISTを用いた画像デノナイズという,さまざまなタスクにまたがってアプローチを検証した。
実験結果から,提案した損失は標準AE損失よりも常に優れた性能を示すことが示された。
関連論文リスト
- $ε$-VAE: Denoising as Visual Decoding [61.29255979767292]
生成モデリングにおいて、トークン化は複雑なデータをコンパクトで構造化された表現に単純化し、より効率的で学習可能な空間を作り出す。
現在の視覚的トークン化手法は従来のオートエンコーダフレームワークに依存しており、エンコーダはデータを潜在表現に圧縮し、デコーダは元の入力を再構築する。
具体的には,デコーダを拡散処理に置き換え,ノイズを反復的に除去して元のイメージを復元し,エンコーダが提供する潜伏者によって誘導される。
再建(rFID)と生成品質(ジェネレーション品質)の両面からアプローチを評価する。
論文 参考訳(メタデータ) (2024-10-05T08:27:53Z) - Compression of Structured Data with Autoencoders: Provable Benefit of
Nonlinearities and Depth [83.15263499262824]
勾配勾配勾配は入力のスパース構造を完全に無視する解に収束することを示す。
浅層構造にデノナイジング関数を付加することにより,スパースデータの圧縮におけるガウス性能の改善方法を示す。
CIFAR-10 や MNIST などの画像データセットに対して,本研究の成果を検証した。
論文 参考訳(メタデータ) (2024-02-07T16:32:29Z) - Compression with Bayesian Implicit Neural Representations [16.593537431810237]
本稿では,データに変分ニューラルネットワークをオーバーフィッティングし,相対エントロピー符号化を用いて近似後重みサンプルを圧縮し,量子化やエントロピー符号化を行う。
実験により,本手法は単純さを維持しつつ,画像および音声の圧縮に強い性能を発揮することが示された。
論文 参考訳(メタデータ) (2023-05-30T16:29:52Z) - Modeling Image Quantization Tradeoffs for Optimal Compression [0.0]
ロスシー圧縮アルゴリズムは、圧縮率を上げるために高周波データを定量化することでトレードオフを狙う。
本稿では,Deep Learningとminimax損失関数を用いた量子化テーブルの最適化手法を提案する。
論文 参考訳(メタデータ) (2021-12-14T07:35:22Z) - Small Lesion Segmentation in Brain MRIs with Subpixel Embedding [105.1223735549524]
ヒト脳のMRIスキャンを虚血性脳梗塞と正常組織に分割する方法を提案する。
本稿では,空間展開埋め込みネットワークによって予測を導出する標準エンコーダデコーダの形式でニューラルネットワークアーキテクチャを提案する。
論文 参考訳(メタデータ) (2021-09-18T00:21:17Z) - Dynamic Neural Representational Decoders for High-Resolution Semantic
Segmentation [98.05643473345474]
動的ニューラル表現デコーダ(NRD)と呼ばれる新しいデコーダを提案する。
エンコーダの出力上の各位置がセマンティックラベルの局所的なパッチに対応するので、この研究では、これらの局所的なパッチをコンパクトなニューラルネットワークで表現する。
このニューラル表現により、意味ラベル空間に先行する滑らかさを活用することができ、デコーダをより効率的にすることができる。
論文 参考訳(メタデータ) (2021-07-30T04:50:56Z) - Orthogonal Features-based EEG Signal Denoising using Fractionally
Compressed AutoEncoder [16.889633963766858]
eeg(denoising electroencephalogram)信号の解法として分数ベースの圧縮オートエンコーダアーキテクチャが導入された。
提案アーキテクチャでは,既存の手法と比較して,標準データセットのデノゲーション結果が改善されている。
論文 参考訳(メタデータ) (2021-02-16T11:15:00Z) - Modeling Lost Information in Lossy Image Compression [72.69327382643549]
ロスシー画像圧縮は、デジタル画像の最もよく使われる演算子の1つである。
Invertible Lossy Compression (ILC) と呼ばれる新しい非可逆的フレームワークを提案する。
論文 参考訳(メタデータ) (2020-06-22T04:04:56Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。