論文の概要: PIE: Pseudo-Invertible Encoder
- arxiv url: http://arxiv.org/abs/2111.00619v1
- Date: Sun, 31 Oct 2021 23:13:37 GMT
- ステータス: 処理完了
- システム内更新日: 2021-11-02 14:34:54.435400
- Title: PIE: Pseudo-Invertible Encoder
- Title(参考訳): PIE:擬似非可逆エンコーダ
- Authors: Jan Jetze Beitler, Ivan Sosnovik, Arnold Smeulders
- Abstract要約: Pseudo Invertibles と呼ばれる疑似表現型アーキテクチャを持つ確率ベースオートエンコーダを新たに導入する。
MNISTのモデルでは,生成した画像のシャープさにおいてWAEやVAEよりも優れていた。
- 参考スコア(独自算出の注目度): 2.1485350418225244
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We consider the problem of information compression from high dimensional
data. Where many studies consider the problem of compression by non-invertible
transformations, we emphasize the importance of invertible compression. We
introduce new class of likelihood-based autoencoders with pseudo bijective
architecture, which we call Pseudo Invertible Encoders. We provide the
theoretical explanation of their principles. We evaluate Gaussian Pseudo
Invertible Encoder on MNIST, where our model outperforms WAE and VAE in
sharpness of the generated images.
- Abstract(参考訳): 我々は高次元データからの情報圧縮の問題を考える。
非可逆変換による圧縮の問題を考える研究は多いが、非可逆圧縮の重要性を強調している。
我々は疑似単射的アーキテクチャを持つ確率に基づく新しいオートエンコーダのクラスを導入し、これを疑似可逆エンコーダと呼ぶ。
私たちは彼らの原理を理論的に説明します。
MNISTのガウス的擬似非可逆エンコーダの評価を行い,本モデルが生成した画像のシャープさにおいてWAEとVAEより優れていることを示す。
関連論文リスト
- Enhancing the Rate-Distortion-Perception Flexibility of Learned Image
Codecs with Conditional Diffusion Decoders [7.485128109817576]
本研究では,デコーダとして使用する場合,条件拡散モデルが生成圧縮タスクにおいて有望な結果をもたらすことを示す。
本稿では,デコーダとして使用する場合,条件拡散モデルが生成圧縮タスクにおいて有望な結果をもたらすことを示す。
論文 参考訳(メタデータ) (2024-03-05T11:48:35Z) - Compression of Structured Data with Autoencoders: Provable Benefit of
Nonlinearities and Depth [83.15263499262824]
勾配勾配勾配は入力のスパース構造を完全に無視する解に収束することを示す。
浅層構造にデノナイジング関数を付加することにより,スパースデータの圧縮におけるガウス性能の改善方法を示す。
CIFAR-10 や MNIST などの画像データセットに対して,本研究の成果を検証した。
論文 参考訳(メタデータ) (2024-02-07T16:32:29Z) - Quick Dense Retrievers Consume KALE: Post Training Kullback Leibler
Alignment of Embeddings for Asymmetrical dual encoders [89.29256833403169]
我々は,高密度検索手法の推論効率を高めるための効率的かつ正確な手法であるKulback Leibler Alignment of Embeddings (KALE)を紹介した。
KALEは、バイエンコーダトレーニング後の従来の知識蒸留を拡張し、完全なリトレーニングやインデックス生成なしに効率的なクエリエンコーダ圧縮を可能にする。
KALEと非対称トレーニングを用いることで、3倍高速な推論を持つにもかかわらず、DistilBERTの性能を超えるモデルを生成することができる。
論文 参考訳(メタデータ) (2023-03-31T15:44:13Z) - Benign Autoencoders [0.0]
我々は最適なエンコーダとデコーダのペアを見つける問題を定式化し、その解を「良性オートエンコーダ」(BAE)と呼ぶ。
我々は、BAEが生成問題の最適圧縮性次元である多様体にデータを投影することを証明した。
実例として,分散シフト下での識別器の性能を向上させるために,BAEが最適で低次元の潜在表現を見出す方法を示す。
論文 参考訳(メタデータ) (2022-10-02T21:36:27Z) - On a Mechanism Framework of Autoencoders [0.0]
本稿では,オートエンコーダの機構に関する理論的枠組みを提案する。
ReLUオートエンコーダの結果は、いくつかの非ReLUケースに一般化される。
PCAや決定木と比較して,次元の縮小と分類における(一般化された)オートエンコーダの利点が示された。
論文 参考訳(メタデータ) (2022-08-15T03:51:40Z) - Lossy Compression with Gaussian Diffusion [28.930398810600504]
非条件拡散生成モデルに基づく新しい損失圧縮手法DiffCについて述べる。
エンコーダ変換の欠如にもかかわらず、概念実証を実装し、驚くほどうまく機能することを発見した。
流れに基づく再構築は,祖先サンプリングよりも高頻度で3dBのゲインを達成できることを示す。
論文 参考訳(メタデータ) (2022-06-17T16:46:31Z) - Reducing Redundancy in the Bottleneck Representation of the Autoencoders [98.78384185493624]
オートエンコーダは教師なしニューラルネットワークの一種であり、様々なタスクを解くのに使用できる。
本稿では,ボトルネック表現における特徴冗長性を明示的に罰する手法を提案する。
我々は,3つの異なるデータセットを用いた次元削減,MNISTデータセットを用いた画像圧縮,ファッションMNISTを用いた画像デノナイズという,さまざまなタスクにまたがってアプローチを検証した。
論文 参考訳(メタデータ) (2022-02-09T18:48:02Z) - COIN++: Data Agnostic Neural Compression [55.27113889737545]
COIN++は、幅広いデータモダリティをシームレスに扱うニューラルネットワーク圧縮フレームワークである。
様々なデータモダリティを圧縮することで,本手法の有効性を示す。
論文 参考訳(メタデータ) (2022-01-30T20:12:04Z) - Implicit Neural Representations for Image Compression [103.78615661013623]
Inlicit Neural Representations (INRs) は、様々なデータ型の新規かつ効果的な表現として注目されている。
量子化、量子化を考慮した再学習、エントロピー符号化を含むINRに基づく最初の包括的圧縮パイプラインを提案する。
我々は、INRによるソース圧縮に対する我々のアプローチが、同様の以前の作業よりも大幅に優れていることに気付きました。
論文 参考訳(メタデータ) (2021-12-08T13:02:53Z) - Modeling Lost Information in Lossy Image Compression [72.69327382643549]
ロスシー画像圧縮は、デジタル画像の最もよく使われる演算子の1つである。
Invertible Lossy Compression (ILC) と呼ばれる新しい非可逆的フレームワークを提案する。
論文 参考訳(メタデータ) (2020-06-22T04:04:56Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。