論文の概要: Ultra-Efficient Decoding for End-to-End Neural Compression and Reconstruction
- arxiv url: http://arxiv.org/abs/2510.01407v2
- Date: Fri, 03 Oct 2025 15:35:44 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-06 14:21:29.918552
- Title: Ultra-Efficient Decoding for End-to-End Neural Compression and Reconstruction
- Title(参考訳): 終端ニューラル圧縮と再構成のための超効率的な復号法
- Authors: Ethan G. Rogers, Cheng Wang,
- Abstract要約: ベクトル量子化を用いたオートエンコーダに低ランク表現を組み込んだ新しい圧縮再構成フレームワークを開発した。
画像の学習遅延表現に対して,一連の計算効率のよい低ランク演算を行うことで,高画質で効率的にデータを再構成できることを実証する。
- 参考スコア(独自算出の注目度): 3.2424997710743138
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Image compression and reconstruction are crucial for various digital applications. While contemporary neural compression methods achieve impressive compression rates, the adoption of such technology has been largely hindered by the complexity and large computational costs of the convolution-based decoders during data reconstruction. To address the decoder bottleneck in neural compression, we develop a new compression-reconstruction framework based on incorporating low-rank representation in an autoencoder with vector quantization. We demonstrated that performing a series of computationally efficient low-rank operations on the learned latent representation of images can efficiently reconstruct the data with high quality. Our approach dramatically reduces the computational overhead in the decoding phase of neural compression/reconstruction, essentially eliminating the decoder compute bottleneck while maintaining high fidelity of image outputs.
- Abstract(参考訳): 画像圧縮と再構成は様々なデジタルアプリケーションに不可欠である。
現代のニューラル圧縮法は印象的な圧縮速度を達成するが、データ再構成時の畳み込みベースのデコーダの複雑さと計算コストにより、そのような技術の採用がほとんど妨げられている。
ニューラル圧縮におけるデコーダボトルネックに対処するため,ベクトル量子化を用いたオートエンコーダに低ランク表現を組み込んだ新しい圧縮再構成フレームワークを開発した。
画像の学習遅延表現に対して,一連の計算効率の低い低ランク演算を行うことで,高画質で効率的にデータを再構成できることを実証した。
提案手法は,画像出力の忠実度を維持しつつ,デコーダ計算のボトルネックを排除し,ニューラル圧縮/再構成の復号フェーズにおける計算オーバーヘッドを劇的に低減する。
関連論文リスト
- Epsilon-VAE: Denoising as Visual Decoding [61.29255979767292]
復号化は1段階の再構成から反復的改良へと移行する。
具体的には、デコーダを拡散処理に置き換え、ノイズを反復的に改善して元の画像を復元する。
拡散による反復的再構成により, 自己エンコーダであるEpsilon-VAEは高い再構成品質を実現する。
論文 参考訳(メタデータ) (2024-10-05T08:27:53Z) - Neural Image Compression with Quantization Rectifier [7.097091519502871]
我々は,画像特徴相関を利用した画像圧縮のための新しい量子化法(QR)を開発し,量子化の影響を緩和する。
提案手法は,量子化された特徴量から未知の特徴量を予測するニューラルネットワークアーキテクチャを設計する。
評価では、QRを最先端のニューラルイメージコーデックに統合し、広く使用されているKodakベンチマークの強化モデルとベースラインを比較する。
論文 参考訳(メタデータ) (2024-03-25T22:26:09Z) - Extreme Image Compression using Fine-tuned VQGANs [43.43014096929809]
本稿ではベクトル量子化(VQ)に基づく生成モデルを画像圧縮領域に導入する。
VQGANモデルによって学習されたコードブックは、強い表現能力をもたらす。
提案したフレームワークは、知覚的品質指向のメトリクスで最先端のコーデックより優れている。
論文 参考訳(メタデータ) (2023-07-17T06:14:19Z) - Computationally-Efficient Neural Image Compression with Shallow Decoders [43.115831685920114]
本稿では,JPEGに類似した浅い,あるいは線形な復号変換を用いることで,復号化複雑性のギャップを解消する。
我々は、より強力なエンコーダネットワークと反復符号化を採用することにより、符号化と復号の間のしばしば非対称な予算を利用する。
論文 参考訳(メタデータ) (2023-04-13T03:38:56Z) - Reducing Redundancy in the Bottleneck Representation of the Autoencoders [98.78384185493624]
オートエンコーダは教師なしニューラルネットワークの一種であり、様々なタスクを解くのに使用できる。
本稿では,ボトルネック表現における特徴冗長性を明示的に罰する手法を提案する。
我々は,3つの異なるデータセットを用いた次元削減,MNISTデータセットを用いた画像圧縮,ファッションMNISTを用いた画像デノナイズという,さまざまなタスクにまたがってアプローチを検証した。
論文 参考訳(メタデータ) (2022-02-09T18:48:02Z) - Neural JPEG: End-to-End Image Compression Leveraging a Standard JPEG
Encoder-Decoder [73.48927855855219]
本稿では,エンコーダとデコーダの両端に内在するニューラル表現を強化することで,符号化性能の向上を図るシステムを提案する。
実験により,提案手法はJPEGに対する速度歪み性能を,様々な品質指標で改善することを示した。
論文 参考訳(メタデータ) (2022-01-27T20:20:03Z) - Implicit Neural Representations for Image Compression [103.78615661013623]
Inlicit Neural Representations (INRs) は、様々なデータ型の新規かつ効果的な表現として注目されている。
量子化、量子化を考慮した再学習、エントロピー符号化を含むINRに基づく最初の包括的圧縮パイプラインを提案する。
我々は、INRによるソース圧縮に対する我々のアプローチが、同様の以前の作業よりも大幅に優れていることに気付きました。
論文 参考訳(メタデータ) (2021-12-08T13:02:53Z) - Modeling Lost Information in Lossy Image Compression [72.69327382643549]
ロスシー画像圧縮は、デジタル画像の最もよく使われる演算子の1つである。
Invertible Lossy Compression (ILC) と呼ばれる新しい非可逆的フレームワークを提案する。
論文 参考訳(メタデータ) (2020-06-22T04:04:56Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。