論文の概要: Learning True Rate-Distortion-Optimization for End-To-End Image
Compression
- arxiv url: http://arxiv.org/abs/2201.01586v1
- Date: Wed, 5 Jan 2022 13:02:00 GMT
- ステータス: 処理完了
- システム内更新日: 2022-01-06 14:36:53.630210
- Title: Learning True Rate-Distortion-Optimization for End-To-End Image
Compression
- Title(参考訳): エンドツーエンド画像圧縮のための真の速度歪み最適化の学習
- Authors: Fabian Brand, Kristian Fischer, Alexander Kopte, Andr\'e Kaup
- Abstract要約: 速度歪みの最適化は、従来の画像圧縮とビデオ圧縮の重要な部分である。
本稿では,RDO結果の低複雑さ推定をトレーニングに導入することにより,トレーニングの強化を図る。
我々は以前のRDONetモデルに比べてMS-SSIMで平均19.6%のレートセーブを実現し、従来のディープイメージコーダに比べて27.3%のレートセーブを実現した。
- 参考スコア(独自算出の注目度): 59.816251613869376
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Even though rate-distortion optimization is a crucial part of traditional
image and video compression, not many approaches exist which transfer this
concept to end-to-end-trained image compression. Most frameworks contain static
compression and decompression models which are fixed after training, so
efficient rate-distortion optimization is not possible. In a previous work, we
proposed RDONet, which enables an RDO approach comparable to adaptive block
partitioning in HEVC. In this paper, we enhance the training by introducing
low-complexity estimations of the RDO result into the training. Additionally,
we propose fast and very fast RDO inference modes. With our novel training
method, we achieve average rate savings of 19.6% in MS-SSIM over the previous
RDONet model, which equals rate savings of 27.3% over a comparable conventional
deep image coder.
- Abstract(参考訳): 速度歪みの最適化は従来の画像圧縮とビデオ圧縮の重要な部分であるが、この概念をエンドツーエンドのイメージ圧縮に転送するアプローチは多くはない。
ほとんどのフレームワークには、トレーニング後に修正される静的圧縮と減算モデルが含まれているため、効率的なレート分散最適化は不可能である。
本稿では,HEVCにおける適応ブロック分割に匹敵するRDOアプローチを実現するRDONetを提案する。
本稿では,RDO結果の低複雑さ推定をトレーニングに導入することにより,トレーニングの強化を図る。
さらに,高速かつ高速なRDO推論モードを提案する。
新たなトレーニング手法により、従来のRDONetモデルと比較して、MS-SSIMの平均保存率19.6%を達成し、従来のディープイメージコーダに比べて27.3%の削減率を実現した。
関連論文リスト
- Learning Efficient and Effective Trajectories for Differential Equation-based Image Restoration [59.744840744491945]
我々は, この手法の軌道最適化を再構築し, 復元品質と効率の両立に焦点をあてる。
本稿では,複雑な経路を適応可能なサイズで複数の管理可能なステップに合理化するためのコスト対応トラジェクトリー蒸留法を提案する。
実験では提案手法の有意な優位性を示し, 最先端手法よりも最大2.1dBのPSNR改善を実現した。
論文 参考訳(メタデータ) (2024-10-07T07:46:08Z) - Frequency-Aware Re-Parameterization for Over-Fitting Based Image
Compression [12.725194101094711]
オーバーフィットベースの画像圧縮は、圧縮のための重み付け圧縮と実用のための高速収束を必要とする。
本稿では、重みを減らし収束を加速したCNNを訓練するための簡易な再パラメータ化法を提案する。
提案手法は, HEIF上に最大-46.12%のBDレートを達成し, 200回しか繰り返しない画像復元実験により検証した。
論文 参考訳(メタデータ) (2023-10-12T06:32:12Z) - Efficient Contextformer: Spatio-Channel Window Attention for Fast
Context Modeling in Learned Image Compression [1.9249287163937978]
学習画像に対する変換器に基づく自己回帰的文脈モデルである、効率的なコンテキストフォーマ(eContextformer)を導入する。
並列コンテキストモデリングのためのパッチワイド、チェッカー、チャンネルワイドのグルーピングテクニックを融合する。
モデル複雑性が145倍、デコード速度が210Cx向上し、Kodak、CLI、Tecnickデータセット上での平均ビット節約を実現している。
論文 参考訳(メタデータ) (2023-06-25T16:29:51Z) - Efficient Diffusion Training via Min-SNR Weighting Strategy [78.5801305960993]
拡散学習をマルチタスク学習問題として扱い,Min-SNR-$gamma$と呼ばれるシンプルなアプローチを導入する。
本結果は,従来の重み付け手法よりも3.4$times$高速で収束速度が大幅に向上したことを示す。
さらに効果的で、ImageNetの256times256$ベンチマークで2.06の新たなFIDスコアを達成した。
論文 参考訳(メタデータ) (2023-03-16T17:59:56Z) - Learned Image Compression with Generalized Octave Convolution and
Cross-Resolution Parameter Estimation [5.238765582868391]
本稿では,オクターブの畳み込みを利用して,遅延表現を高分解能 (HR) と低分解能 (LR) に分解する多分解能画像圧縮フレームワークを提案する。
実験結果から,本手法は,最先端の学習画像圧縮法と比較して,復号時間を約73.35 %,93.44 %削減できることがわかった。
論文 参考訳(メタデータ) (2022-09-07T08:21:52Z) - Reducing The Amortization Gap of Entropy Bottleneck In End-to-End Image
Compression [2.1485350418225244]
エンド・ツー・エンドのディープ・トレーニング可能なモデルは、ビデオや画像の従来の手作り圧縮技術の性能をほぼ上回っている。
本稿では,このアモート化ギャップを小さなコストで低減する,シンプルで効率的なインスタンスベースのパラメータ化手法を提案する。
論文 参考訳(メタデータ) (2022-09-02T11:43:45Z) - An Empirical Analysis of Recurrent Learning Algorithms In Neural Lossy
Image Compression Systems [73.48927855855219]
近年のディープラーニングの進歩により、JPEGとJPEG 2000を標準のKodakベンチマークで上回る画像圧縮アルゴリズムが実現している。
本稿では,最近の最先端ハイブリッドニューラル圧縮アルゴリズムの大規模比較を行う。
論文 参考訳(メタデータ) (2022-01-27T19:47:51Z) - Implicit Neural Representations for Image Compression [103.78615661013623]
Inlicit Neural Representations (INRs) は、様々なデータ型の新規かつ効果的な表現として注目されている。
量子化、量子化を考慮した再学習、エントロピー符号化を含むINRに基づく最初の包括的圧縮パイプラインを提案する。
我々は、INRによるソース圧縮に対する我々のアプローチが、同様の以前の作業よりも大幅に優れていることに気付きました。
論文 参考訳(メタデータ) (2021-12-08T13:02:53Z) - Channel-wise Autoregressive Entropy Models for Learned Image Compression [8.486483425885291]
画像圧縮に対する学習ベースのアプローチでは、コーデックは、速度歪みの目的を最小化するために計算モデルを最適化することによって開発される。
チャネルコンディショニングと遅延残差予測という2つの拡張を導入し,ネットワークアーキテクチャの速度歪み性能を向上した。
改善がもっとも効果的である低ビットレートでは、私たちのモデルはベースラインを最大18%節約し、BPGのような手書きコーデックを最大25%上回ります。
論文 参考訳(メタデータ) (2020-07-17T03:33:53Z) - Learning End-to-End Lossy Image Compression: A Benchmark [90.35363142246806]
まず,学習した画像の圧縮方法に関する総合的な文献調査を行う。
本稿では,最先端の学習画像圧縮手法のマイルストーンについて述べるとともに,既存の幅広い作品について概観し,その歴史的開発ルートについて考察する。
エントロピー推定と信号再構成のための粗大な超高次モデルを導入することにより、速度歪み性能の向上を実現する。
論文 参考訳(メタデータ) (2020-02-10T13:13:43Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。