論文の概要: Deep Lossless Image Compression via Masked Sampling and Coarse-to-Fine Auto-Regression
- arxiv url: http://arxiv.org/abs/2503.11231v1
- Date: Fri, 14 Mar 2025 09:29:55 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-03-17 13:06:03.128737
- Title: Deep Lossless Image Compression via Masked Sampling and Coarse-to-Fine Auto-Regression
- Title(参考訳): Masked SmplingとCoarse-to-Fine Auto-Regressionによる奥行き画像圧縮
- Authors: Tiantian Li, Qunbing Xia, Yue Li, Ruixiao Guo, Gaobo Yang,
- Abstract要約: 本稿では,マスクサンプリングと粗大な自動回帰によるロスレス画像圧縮を提案する。
これは、様々な方向からコンテキストを融合させる、損失のある再構築と漸進的な残留圧縮を組み合わせたものである。
提案手法は、競合する符号化速度と柔軟性を有する広範囲なデータセットにおいて、同等の圧縮性能を実現する。
- 参考スコア(独自算出の注目度): 8.6984128323386
- License:
- Abstract: Learning-based lossless image compression employs pixel-based or subimage-based auto-regression for probability estimation, which achieves desirable performances. However, the existing works only consider context dependencies in one direction, namely, those symbols that appear before the current symbol in raster order. We believe that the dependencies between the current and future symbols should be further considered. In this work, we propose a deep lossless image compression via masked sampling and coarse-to-fine auto-regression. It combines lossy reconstruction and progressive residual compression, which fuses contexts from various directions and is more consistent with human perception. Specifically, the residuals are decomposed via $T$ iterative masked sampling, and each sampling consists of three steps: 1) probability estimation, 2) mask computation, and 3) arithmetic coding. The iterative process progressively refines our prediction and gradually presents a real image. Extensive experimental results show that compared with the existing traditional and learned lossless compression, our method achieves comparable compression performance on extensive datasets with competitive coding speed and more flexibility.
- Abstract(参考訳): 学習に基づくロスレス画像圧縮では、確率推定のためにピクセルベースまたはサブイメージベースのオートレグレッションを採用し、望ましい性能を達成する。
しかし、既存の作業ではコンテキスト依存を1方向のみ考慮しており、すなわち、現在のシンボルの前にラスタ順に現れるシンボルである。
我々は、現在のシンボルと将来のシンボルの間の依存関係をさらに考慮すべきであると考えている。
本研究では,マスクサンプリングと粗大な自己回帰によるロスレス画像の深部圧縮を提案する。
これは、様々な方向からコンテキストを融合させ、人間の知覚とより整合した、失われた再構成と進行的な残留圧縮を組み合わせたものである。
具体的には、残余は$T$反復マスクサンプリングによって分解され、各サンプリングは3つのステップから構成される。
1)確率推定
2)マスク計算,及び
3)算術符号。
反復過程は、我々の予測を徐々に洗練させ、実際の画像を徐々に提示する。
実験結果から,既存の従来型および学習型ロスレス圧縮と比較して,競合する符号化速度と柔軟性を有する大規模データセット上での圧縮性能が同等であることがわかった。
関連論文リスト
- CALLIC: Content Adaptive Learning for Lossless Image Compression [64.47244912937204]
CALLICは、学習したロスレス画像圧縮のための新しい最先端(SOTA)を設定する。
本稿では,畳み込みゲーティング操作を利用したコンテンツ認識型自己回帰自己保持機構を提案する。
エンコーディング中、低ランク行列を用いて深度の畳み込みを含む事前学習層を分解し、レート誘導プログレッシブファインタニング(RPFT)による画像検査にインクリメンタルウェイトを適応させる。
推定エントロピーにより下位順にソートされたパッチを徐々に増加させたRPFTファインチューン,学習過程の最適化,適応時間の短縮を実現した。
論文 参考訳(メタデータ) (2024-12-23T10:41:18Z) - Semantic Ensemble Loss and Latent Refinement for High-Fidelity Neural Image Compression [58.618625678054826]
本研究は、最適な視覚的忠実度のために設計された強化されたニューラル圧縮手法を提案する。
我々は,洗練されたセマンティック・アンサンブル・ロス,シャルボニエ・ロス,知覚的損失,スタイル・ロス,非バイナリ・ディバイザ・ロスを組み込んだモデルを構築した。
実験により,本手法は神経画像圧縮の統計的忠実度を著しく向上させることが示された。
論文 参考訳(メタデータ) (2024-01-25T08:11:27Z) - You Can Mask More For Extremely Low-Bitrate Image Compression [80.7692466922499]
近年,学習画像圧縮(lic)法は大きな進歩を遂げている。
licメソッドは、画像圧縮に不可欠な画像構造とテクスチャコンポーネントを明示的に探索することができない。
原画像の構造とテクスチャに基づいて可視パッチをサンプリングするDA-Maskを提案する。
極めて低ビットレート圧縮のために, lic と lic のエンドツーエンドを統一する最初のフレームワークである, 単純で効果的なマスク付き圧縮モデル (MCM) を提案する。
論文 参考訳(メタデータ) (2023-06-27T15:36:22Z) - Self-Asymmetric Invertible Network for Compression-Aware Image Rescaling [6.861753163565238]
現実世界のアプリケーションでは、ほとんどの画像は伝送のために圧縮される。
圧縮対応画像再スケーリングのための自己非対称可逆ネットワーク(SAIN)を提案する。
論文 参考訳(メタデータ) (2023-03-04T08:33:46Z) - Deep Lossy Plus Residual Coding for Lossless and Near-lossless Image
Compression [85.93207826513192]
本稿では、損失のない画像圧縮とほぼロスレス画像圧縮の両面において、統合された強力な深い損失+残差(DLPR)符号化フレームワークを提案する。
VAEのアプローチにおける連立損失と残留圧縮の問題を解く。
ほぼロスレスモードでは、元の残差を量子化し、与えられた$ell_infty$エラー境界を満たす。
論文 参考訳(メタデータ) (2022-09-11T12:11:56Z) - Implicit Neural Representations for Image Compression [103.78615661013623]
Inlicit Neural Representations (INRs) は、様々なデータ型の新規かつ効果的な表現として注目されている。
量子化、量子化を考慮した再学習、エントロピー符号化を含むINRに基づく最初の包括的圧縮パイプラインを提案する。
我々は、INRによるソース圧縮に対する我々のアプローチが、同様の以前の作業よりも大幅に優れていることに気付きました。
論文 参考訳(メタデータ) (2021-12-08T13:02:53Z) - Learning Scalable $\ell_\infty$-constrained Near-lossless Image
Compression via Joint Lossy Image and Residual Compression [118.89112502350177]
本稿では,$ell_infty$-constrained near-lossless image compressionを学習するための新しいフレームワークを提案する。
元の残差の学習確率モデルを定量化し、量子化残差の確率モデルを導出する。
論文 参考訳(メタデータ) (2021-03-31T11:53:36Z) - Improving Inference for Neural Image Compression [31.999462074510305]
State-of-the-art method build on Hierarchical variational autoencoders to predict a compressible latent representation of each data point。
従来の手法では性能を制限した3つの近似ギャップを同定する。
本稿では,これら3つの制約のそれぞれについて,反復的推論に関する考え方に基づく対策を提案する。
論文 参考訳(メタデータ) (2020-06-07T19:26:37Z) - Saliency Driven Perceptual Image Compression [6.201592931432016]
画像圧縮技術の性能評価にはMS-SSIMやPSNRなどの評価指標が不十分であることを示す。
画像圧縮に特有な知覚的類似性データに基づいて学習する新しい指標を提案する。
このモデルは視覚的に優れた画像を生成するだけでなく、その後のコンピュータビジョンタスクに優れた性能を与える。
論文 参考訳(メタデータ) (2020-02-12T13:43:17Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。