論文の概要: SC-VAE: Sparse Coding-based Variational Autoencoder
- arxiv url: http://arxiv.org/abs/2303.16666v1
- Date: Wed, 29 Mar 2023 13:18:33 GMT
- ステータス: 処理完了
- システム内更新日: 2023-03-30 14:51:41.294654
- Title: SC-VAE: Sparse Coding-based Variational Autoencoder
- Title(参考訳): SC-VAE:スパース符号化に基づく変分オートエンコーダ
- Authors: Pan Xiao, Peijie Qiu, Aristeidis Sotiras
- Abstract要約: 本稿では,分散符号化を多変量オートエンコーダフレームワークに統合した SC-VAE (sparse coding-based VAE) を提案する。
我々のモデルは、最先端の手法と比較して、画像再構成結果の改善が可能である。
- 参考スコア(独自算出の注目度): 0.225596179391365
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Learning rich data representations from unlabeled data is a key challenge
towards applying deep learning algorithms in downstream supervised tasks.
Several variants of variational autoencoders have been proposed to learn
compact data representaitons by encoding high-dimensional data in a lower
dimensional space. Two main classes of VAEs methods may be distinguished
depending on the characteristics of the meta-priors that are enforced in the
representation learning step. The first class of methods derives a continuous
encoding by assuming a static prior distribution in the latent space. The
second class of methods learns instead a discrete latent representation using
vector quantization (VQ) along with a codebook. However, both classes of
methods suffer from certain challenges, which may lead to suboptimal image
reconstruction results. The first class of methods suffers from posterior
collapse, whereas the second class of methods suffers from codebook collapse.
To address these challenges, we introduce a new VAE variant, termed SC-VAE
(sparse coding-based VAE), which integrates sparse coding within variational
autoencoder framework. Instead of learning a continuous or discrete latent
representation, the proposed method learns a sparse data representation that
consists of a linear combination of a small number of learned atoms. The sparse
coding problem is solved using a learnable version of the iterative shrinkage
thresholding algorithm (ISTA). Experiments on two image datasets demonstrate
that our model can achieve improved image reconstruction results compared to
state-of-the-art methods. Moreover, the use of learned sparse code vectors
allows us to perform downstream task like coarse image segmentation through
clustering image patches.
- Abstract(参考訳): ラベルのないデータからリッチなデータ表現を学ぶことは、下流の教師付きタスクにディープラーニングアルゴリズムを適用するための重要な課題である。
低次元空間に高次元データを符号化することでコンパクトなデータ表現を学習するために、変分オートエンコーダのいくつかの変種が提案されている。
VAEメソッドの2つの主要なクラスは、表現学習ステップで強制されるメタプライヤの特性によって区別することができる。
第一級のメソッドは、潜在空間における静的事前分布を仮定して連続符号化を導出する。
2つ目のクラスは、コードブックとともにベクトル量子化(VQ)を用いて離散潜在表現を学ぶ。
しかし,どちらの手法も特定の課題に悩まされており,画像再構成の結果が得られうる。
第1級のメソッドは後部崩壊に悩まされ、第2級のメソッドはコードブック崩壊に悩まされる。
これらの課題に対処するため,我々は,変分オートエンコーダフレームワークにスパース符号化を統合するsc-vae (sparse coding-based vae)と呼ばれる新しいvae変種を導入する。
連続的あるいは離散的な潜在表現を学習する代わりに、より少ない数の学習原子の線形結合からなるスパースデータ表現を学習する。
反復収縮しきい値アルゴリズム(ISTA)の学習可能なバージョンを用いてスパース符号化問題を解く。
2つの画像データセットを用いた実験により,本モデルが最先端手法と比較して画像再構成精度の向上を実現した。
さらに、学習したスパースコードベクトルを使用することで、クラスタリングイメージパッチを通じて粗いイメージセグメンテーションのような下流タスクを実行できる。
関連論文リスト
- Not All Image Regions Matter: Masked Vector Quantization for
Autoregressive Image Generation [78.13793505707952]
既存の自己回帰モデルは、まず画像再構成のための潜伏空間のコードブックを学習し、学習したコードブックに基づいて自己回帰的に画像生成を完了する2段階生成パラダイムに従っている。
そこで本研究では,Masked Quantization VAE (MQ-VAE) Stackモデルを用いた2段階フレームワークを提案する。
論文 参考訳(メタデータ) (2023-05-23T02:15:53Z) - Towards Accurate Image Coding: Improved Autoregressive Image Generation
with Dynamic Vector Quantization [73.52943587514386]
既存のベクトル量子化(VQ)ベースの自己回帰モデルは、2段階生成パラダイムに従う。
画像領域を可変長符号に符号化する動的量子化VAE(DQ-VAE)を提案する。
論文 参考訳(メタデータ) (2023-05-19T14:56:05Z) - Discriminative Class Tokens for Text-to-Image Diffusion Models [107.98436819341592]
自由形式のテキストの表現可能性を利用した非侵襲的な微調整手法を提案する。
本手法は,従来の微調整法と比較して高速で,クラス内の画像の収集を必要としない。
i)標準拡散モデルよりも正確で高品質な生成画像,(ii)低リソース環境でのトレーニングデータの拡張,および(iii)誘導分類器の訓練に使用されるデータ情報を明らかにする。
論文 参考訳(メタデータ) (2023-03-30T05:25:20Z) - Closed-Loop Transcription via Convolutional Sparse Coding [29.75613581643052]
オートエンコーダはしばしばエンコーダやデコーダとして汎用的なディープネットワークを使用するが、解釈が難しい。
本研究では,多段畳み込みスパース符号化(CSC)から画像分布が生成されることを明示的に仮定する。
提案手法は, より構造化され, 解釈可能な表現, より安定した収束, 大規模データセットのスケーラビリティなど, 様々なメリットを享受する。
論文 参考訳(メタデータ) (2023-02-18T14:40:07Z) - Vector Quantized Wasserstein Auto-Encoder [57.29764749855623]
生成的視点から深層離散表現を学習する。
我々は,コードワード列上の離散分布を付与し,コードワード列上の分布をデータ分布に伝達する決定論的デコーダを学習する。
WS 距離のクラスタリングの観点と結びつけて,より優れた,より制御可能なクラスタリングソリューションを実現するための,さらなる理論を開発しています。
論文 参考訳(メタデータ) (2023-02-12T13:51:36Z) - Unsupervised Learning of Visual Features by Contrasting Cluster
Assignments [57.33699905852397]
ペア比較の計算を必要とせず,コントラスト的手法を生かしたオンラインアルゴリズムSwaVを提案する。
本手法では,クラスタ割り当て間の一貫性を保ちながら,同時にデータをクラスタ化する。
我々の方法は大規模で小さなバッチで訓練でき、無制限のデータにスケールできる。
論文 参考訳(メタデータ) (2020-06-17T14:00:42Z) - Variational Clustering: Leveraging Variational Autoencoders for Image
Clustering [8.465172258675763]
変分オートエンコーダ(VAE)は、潜在空間におけるデータ分布の学習に自然に役立ちます。
画像のクラスタリングに先立ってガウス混合を用いるVAEに基づく手法を提案する。
提案手法は,画像の潜伏分布と後部を捉える前処理を同時に学習し,データポイント間の識別に役立てる。
論文 参考訳(メタデータ) (2020-05-10T09:34:48Z) - Deterministic Decoding for Discrete Data in Variational Autoencoders [5.254093731341154]
サンプリングの代わりに最上位のトークンを選択するシーケンシャルデータに対して,決定論的デコーダ(DD-VAE)を用いたVAEモデルについて検討する。
分子生成や最適化問題を含む複数のデータセット上でのDD-VAEの性能を示す。
論文 参考訳(メタデータ) (2020-03-04T16:36:52Z) - Auto-Encoding Twin-Bottleneck Hashing [141.5378966676885]
本稿では,効率よく適応的なコード駆動グラフを提案する。
自動エンコーダのコンテキストでデコードすることで更新される。
ベンチマークデータセットの実験は、最先端のハッシュ手法よりもフレームワークの方が優れていることを明らかに示しています。
論文 参考訳(メタデータ) (2020-02-27T05:58:12Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。