論文の概要: Lossless Image Compression Using a Multi-Scale Progressive Statistical
Model
- arxiv url: http://arxiv.org/abs/2108.10551v1
- Date: Tue, 24 Aug 2021 07:33:13 GMT
- ステータス: 処理完了
- システム内更新日: 2021-08-25 14:22:52.654447
- Title: Lossless Image Compression Using a Multi-Scale Progressive Statistical
Model
- Title(参考訳): マルチスケール進行統計モデルを用いたロスレス画像圧縮
- Authors: Honglei Zhang, Francesco Cricri, Hamed R. Tavakoli, Nannan Zou, Emre
Aksu, Miska M. Hannuksela
- Abstract要約: 画素単位の自己回帰統計モデルに基づく手法は優れた性能を示した。
本稿では,画素ワイズアプローチとマルチスケールアプローチを利用したマルチスケールプログレッシブ統計モデルを提案する。
- 参考スコア(独自算出の注目度): 16.58692559039154
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Lossless image compression is an important technique for image storage and
transmission when information loss is not allowed. With the fast development of
deep learning techniques, deep neural networks have been used in this field to
achieve a higher compression rate. Methods based on pixel-wise autoregressive
statistical models have shown good performance. However, the sequential
processing way prevents these methods to be used in practice. Recently,
multi-scale autoregressive models have been proposed to address this
limitation. Multi-scale approaches can use parallel computing systems
efficiently and build practical systems. Nevertheless, these approaches
sacrifice compression performance in exchange for speed. In this paper, we
propose a multi-scale progressive statistical model that takes advantage of the
pixel-wise approach and the multi-scale approach. We developed a flexible
mechanism where the processing order of the pixels can be adjusted easily. Our
proposed method outperforms the state-of-the-art lossless image compression
methods on two large benchmark datasets by a significant margin without
degrading the inference speed dramatically.
- Abstract(参考訳): ロスレス画像圧縮は、情報損失を許さない場合、画像記憶と伝送にとって重要な技術である。
ディープラーニング技術の急速な発展に伴い、この分野ではより高い圧縮率を達成するためにディープニューラルネットワークが使用されている。
画素単位の自己回帰統計モデルに基づく手法は優れた性能を示した。
しかし、シーケンシャルな処理方法は、これらの方法が実際に使用されるのを防ぐ。
近年,この制限に対処するために,マルチスケール自己回帰モデルが提案されている。
マルチスケールアプローチは並列コンピューティングシステムを効率的に利用し、実用的なシステムを構築することができる。
しかし、これらの手法は速度と引き換えに圧縮性能を犠牲にする。
本稿では,画素ワイド・アプローチとマルチスケール・アプローチを利用するマルチスケール・プログレッシブ・統計モデルを提案する。
我々は,画素の処理順序を容易に調整できるフレキシブルな機構を開発した。
提案手法は,推定速度を劇的に低下させることなく,2つの大きなベンチマークデータセットに対して,最先端のロスレス画像圧縮法を著しく向上させる。
関連論文リスト
- SpotDiffusion: A Fast Approach For Seamless Panorama Generation Over Time [7.532695984765271]
生成モデルを用いて高解像度画像を生成する新しい手法を提案する。
提案手法は,時間とともに重なりのないデノベーションウィンドウをシフトさせ,一段階のシームが次回修正されるようにする。
提案手法は計算効率の向上や推論時間の高速化など,いくつかの重要な利点を提供する。
論文 参考訳(メタデータ) (2024-07-22T09:44:35Z) - Semantic Ensemble Loss and Latent Refinement for High-Fidelity Neural Image Compression [58.618625678054826]
本研究は、最適な視覚的忠実度のために設計された強化されたニューラル圧縮手法を提案する。
我々は,洗練されたセマンティック・アンサンブル・ロス,シャルボニエ・ロス,知覚的損失,スタイル・ロス,非バイナリ・ディバイザ・ロスを組み込んだモデルを構築した。
実験により,本手法は神経画像圧縮の統計的忠実度を著しく向上させることが示された。
論文 参考訳(メタデータ) (2024-01-25T08:11:27Z) - Transferable Learned Image Compression-Resistant Adversarial Perturbations [66.46470251521947]
敵対的攻撃は容易に画像分類システムを破壊し、DNNベースの認識タスクの脆弱性を明らかにする。
我々は、学習した画像圧縮機を前処理モジュールとして利用する画像分類モデルをターゲットにした新しいパイプラインを提案する。
論文 参考訳(メタデータ) (2024-01-06T03:03:28Z) - You Can Mask More For Extremely Low-Bitrate Image Compression [80.7692466922499]
近年,学習画像圧縮(lic)法は大きな進歩を遂げている。
licメソッドは、画像圧縮に不可欠な画像構造とテクスチャコンポーネントを明示的に探索することができない。
原画像の構造とテクスチャに基づいて可視パッチをサンプリングするDA-Maskを提案する。
極めて低ビットレート圧縮のために, lic と lic のエンドツーエンドを統一する最初のフレームワークである, 単純で効果的なマスク付き圧縮モデル (MCM) を提案する。
論文 参考訳(メタデータ) (2023-06-27T15:36:22Z) - Reducing The Amortization Gap of Entropy Bottleneck In End-to-End Image
Compression [2.1485350418225244]
エンド・ツー・エンドのディープ・トレーニング可能なモデルは、ビデオや画像の従来の手作り圧縮技術の性能をほぼ上回っている。
本稿では,このアモート化ギャップを小さなコストで低減する,シンプルで効率的なインスタンスベースのパラメータ化手法を提案する。
論文 参考訳(メタデータ) (2022-09-02T11:43:45Z) - Post-Training Quantization for Cross-Platform Learned Image Compression [15.67527732099067]
学習した画像圧縮が従来の画像符号化技術より優れていることが確認されている。
考慮すべき最も重要な問題の1つは、非決定論的計算である。
本稿では,学習後量子化の導入によってこの問題を解決することを提案する。
論文 参考訳(メタデータ) (2022-02-15T15:41:12Z) - Compressed Smooth Sparse Decomposition [3.8644240125444]
本稿では,画像中のスパース異常検出の理論的性能を保証する高速かつデータ効率の手法を提案する。
提案手法は,圧縮画像取得と分解に基づく画像処理技術を統合する一段階法として,圧縮平滑スパース分解法 (CSSD) と命名された。
従来のスムーズかつスパースな分解アルゴリズムと比較して、伝送コストの大幅な削減と計算速度の向上は無視できる性能損失で達成できる。
論文 参考訳(メタデータ) (2022-01-19T03:50:41Z) - Modeling Image Quantization Tradeoffs for Optimal Compression [0.0]
ロスシー圧縮アルゴリズムは、圧縮率を上げるために高周波データを定量化することでトレードオフを狙う。
本稿では,Deep Learningとminimax損失関数を用いた量子化テーブルの最適化手法を提案する。
論文 参考訳(メタデータ) (2021-12-14T07:35:22Z) - Implicit Neural Representations for Image Compression [103.78615661013623]
Inlicit Neural Representations (INRs) は、様々なデータ型の新規かつ効果的な表現として注目されている。
量子化、量子化を考慮した再学習、エントロピー符号化を含むINRに基づく最初の包括的圧縮パイプラインを提案する。
我々は、INRによるソース圧縮に対する我々のアプローチが、同様の以前の作業よりも大幅に優れていることに気付きました。
論文 参考訳(メタデータ) (2021-12-08T13:02:53Z) - PixelPyramids: Exact Inference Models from Lossless Image Pyramids [58.949070311990916]
Pixel-Pyramidsは、画像画素の関節分布を符号化するスケール特異的表現を用いたブロック自動回帰手法である。
様々な画像データセット、特に高解像度データに対する密度推定の最先端結果が得られる。
CelebA-HQ 1024 x 1024 では,フローベースモデルの並列化よりもサンプリング速度が優れているにもかかわらず,密度推定値がベースラインの 44% に向上することが観察された。
論文 参考訳(メタデータ) (2021-10-17T10:47:29Z) - Learning End-to-End Lossy Image Compression: A Benchmark [90.35363142246806]
まず,学習した画像の圧縮方法に関する総合的な文献調査を行う。
本稿では,最先端の学習画像圧縮手法のマイルストーンについて述べるとともに,既存の幅広い作品について概観し,その歴史的開発ルートについて考察する。
エントロピー推定と信号再構成のための粗大な超高次モデルを導入することにより、速度歪み性能の向上を実現する。
論文 参考訳(メタデータ) (2020-02-10T13:13:43Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。