論文の概要: Neural Network Assisted Lifting Steps For Improved Fully Scalable Lossy
Image Compression in JPEG 2000
- arxiv url: http://arxiv.org/abs/2403.01647v1
- Date: Mon, 4 Mar 2024 00:01:52 GMT
- ステータス: 処理完了
- システム内更新日: 2024-03-06 20:26:08.306014
- Title: Neural Network Assisted Lifting Steps For Improved Fully Scalable Lossy
Image Compression in JPEG 2000
- Title(参考訳): JPEG 2000における完全スケーラブルな画像圧縮のためのニューラルネットワーク支援リフティングステップ
- Authors: Xinyue Li, Aous Naman and David Taubman
- Abstract要約: 本研究は,従来のウェーブレット変換の昇降ステップを,ニューラルネットワークによる昇降ステップを追加することを提案する。
提案手法は、ハイ・ツー・ロー・ステップとロー・ツー・ハイ・ステップの2段階を含む。
JPEG 2000画像符号化標準に提案手法を適用することで,平均BDビットレートを最大17.4%削減できる。
- 参考スコア(独自算出の注目度): 14.473452842448737
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: This work proposes to augment the lifting steps of the conventional wavelet
transform with additional neural network assisted lifting steps. These
additional steps reduce residual redundancy (notably aliasing information)
amongst the wavelet subbands, and also improve the visual quality of
reconstructed images at reduced resolutions. The proposed approach involves two
steps, a high-to-low step followed by a low-to-high step. The high-to-low step
suppresses aliasing in the low-pass band by using the detail bands at the same
resolution, while the low-to-high step aims to further remove redundancy from
detail bands, so as to achieve higher energy compaction. The proposed two
lifting steps are trained in an end-to-end fashion; we employ a backward
annealing approach to overcome the non-differentiability of the quantization
and cost functions during back-propagation. Importantly, the networks employed
in this paper are compact and with limited non-linearities, allowing a fully
scalable system; one pair of trained network parameters are applied for all
levels of decomposition and for all bit-rates of interest. By employing the
proposed approach within the JPEG 2000 image coding standard, our method can
achieve up to 17.4% average BD bit-rate saving over a wide range of bit-rates,
while retaining quality and resolution scalability features of JPEG 2000.
- Abstract(参考訳): 本研究は,従来のウェーブレット変換の昇降ステップを,ニューラルネットワークによる昇降ステップを追加することを提案する。
これらの追加ステップにより、ウェーブレットサブバンド間の残差(特にエイリアス情報)が減少し、解像度の低下による再構成画像の視覚的品質が向上する。
提案手法は、ハイ・ツー・ロー・ステップとロー・ツー・ハイ・ステップの2段階を含む。
ハイ・トゥ・ローステップはディテールバンドを同じ解像度で使用することによりローパスバンドのエイリアスを抑制するが、ロー・トゥ・ハイステップはディテールバンドからの冗長性をさらに取り除き、より高いエネルギー圧縮を達成することを目的としている。
提案した2つのリフトステップはエンドツーエンドでトレーニングされ、バックプロパゲーション中に量子化とコスト関数の非微分性を克服するために後方アニール方式を用いる。
重要なことに、本論文で採用されているネットワークはコンパクトで非線形性が限られており、完全にスケーラブルなシステムを実現している。
JPEG 2000の画像符号化標準に提案手法を適用することで、JPEG 2000の品質と解像度のスケーラビリティを保ちながら、幅広いビットレートで平均BDビットレートを最大17.4%削減できる。
関連論文リスト
- PassionSR: Post-Training Quantization with Adaptive Scale in One-Step Diffusion based Image Super-Resolution [87.89013794655207]
拡散に基づく画像超解像(SR)モデルでは、複数のデノナイジングステップのコストで優れた性能を示す。
本稿では,一段階拡散(OSD)画像SR,PassionSRにおける適応スケールの学習後量子化手法を提案する。
我々のPassionSRは、画像SRの最近の先進的な低ビット量子化法に対して大きな利点がある。
論文 参考訳(メタデータ) (2024-11-26T04:49:42Z) - Learning Efficient and Effective Trajectories for Differential Equation-based Image Restoration [59.744840744491945]
我々は, この手法の軌道最適化を再構築し, 復元品質と効率の両立に焦点をあてる。
本稿では,複雑な経路を適応可能なサイズで複数の管理可能なステップに合理化するためのコスト対応トラジェクトリー蒸留法を提案する。
実験では提案手法の有意な優位性を示し, 最先端手法よりも最大2.1dBのPSNR改善を実現した。
論文 参考訳(メタデータ) (2024-10-07T07:46:08Z) - 2DQuant: Low-bit Post-Training Quantization for Image Super-Resolution [83.09117439860607]
低ビット量子化は、エッジ展開のための画像超解像(SR)モデルを圧縮するために広く普及している。
低ビット量子化は、フル精度(FP)と比較してSRモデルの精度を低下させることが知られている。
本稿では2DQuantという画像超解像のための2段階の低ビット後量子化(PTQ)法を提案する。
論文 参考訳(メタデータ) (2024-06-10T06:06:11Z) - Frequency-Aware Re-Parameterization for Over-Fitting Based Image
Compression [12.725194101094711]
オーバーフィットベースの画像圧縮は、圧縮のための重み付け圧縮と実用のための高速収束を必要とする。
本稿では、重みを減らし収束を加速したCNNを訓練するための簡易な再パラメータ化法を提案する。
提案手法は, HEIF上に最大-46.12%のBDレートを達成し, 200回しか繰り返しない画像復元実験により検証した。
論文 参考訳(メタデータ) (2023-10-12T06:32:12Z) - Learned Image Compression with Generalized Octave Convolution and
Cross-Resolution Parameter Estimation [5.238765582868391]
本稿では,オクターブの畳み込みを利用して,遅延表現を高分解能 (HR) と低分解能 (LR) に分解する多分解能画像圧縮フレームワークを提案する。
実験結果から,本手法は,最先端の学習画像圧縮法と比較して,復号時間を約73.35 %,93.44 %削減できることがわかった。
論文 参考訳(メタデータ) (2022-09-07T08:21:52Z) - Dynamic Dual Trainable Bounds for Ultra-low Precision Super-Resolution
Networks [82.18396309806577]
動的デュアル・トレーニング・バウンダリ(DDTB)と呼ばれる新しいアクティベーション・量子化器を提案する。
DDTBは超低精度で優れた性能を示した。
例えば、我々のDDTBは、EDSRを2ビットに量子化し、出力画像をx4にスケールアップする場合、Urban100ベンチマークで0.70dBのPSNRアップを達成する。
論文 参考訳(メタデータ) (2022-03-08T04:26:18Z) - Invertible Network for Unpaired Low-light Image Enhancement [78.33382003460903]
本稿では,非可逆的ネットワークを活用して,前処理における低照度画像の強化と,非対向学習により逆向きに通常の照度画像の劣化を図ることを提案する。
対向的損失に加えて、トレーニングの安定性を確保し、より詳細な画像を保存するために、様々な損失関数を設計する。
低照度画像に対するプログレッシブ自己誘導強調処理を提案し,SOTAに対して良好な性能を示す。
論文 参考訳(メタデータ) (2021-12-24T17:00:54Z) - Efficient Re-parameterization Residual Attention Network For
Nonhomogeneous Image Dehazing [4.723586858098229]
ERRA-Netは1200x1600のHD画質の画像を平均166.11 fpsで処理する。
我々は, ステップ毎に高周波特徴を抽出するために, カスケードMAブロックを用い, 多層アテンション融合テールは, モデルの浅部と深部を結合してクリーン画像の残像を得る。
論文 参考訳(メタデータ) (2021-09-12T10:03:44Z) - Remote Sensing Image Scene Classification with Deep Neural Networks in
JPEG 2000 Compressed Domain [8.296684637620553]
ディープニューラルネットワーク(DNN)を用いた既存のシーン分類アプローチでは、画像を完全に圧縮する必要がある。
JPEG 2000圧縮RS画像におけるシーン分類を実現するための新しい手法を提案する。
論文 参考訳(メタデータ) (2020-06-20T09:13:38Z) - Hyperspectral Image Super-resolution via Deep Progressive Zero-centric
Residual Learning [62.52242684874278]
空間情報とスペクトル情報の相互モダリティ分布が問題となる。
本稿では,PZRes-Netという,新しいテクスライトウェイトなディープニューラルネットワークベースのフレームワークを提案する。
本フレームワークは,高分解能かつテクテッセロ中心の残像を学習し,シーンの空間的詳細を高頻度で表現する。
論文 参考訳(メタデータ) (2020-06-18T06:32:11Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。