論文の概要: ProgDTD: Progressive Learned Image Compression with Double-Tail-Drop
Training
- arxiv url: http://arxiv.org/abs/2305.02145v1
- Date: Wed, 3 May 2023 14:23:37 GMT
- ステータス: 処理完了
- システム内更新日: 2023-05-04 14:35:53.472345
- Title: ProgDTD: Progressive Learned Image Compression with Double-Tail-Drop
Training
- Title(参考訳): progdtd: ダブルテールドロップトレーニングによるプログレッシブ学習画像圧縮
- Authors: Ali Hojjat, Janek Haberer, Olaf Landsiedel
- Abstract要約: 本稿では,学習した非プログレッシブな画像圧縮アプローチをプログレッシブなものに変換する訓練手法であるProgDTDを紹介する。
プログレッシブ圧縮モデルを作成するために、ProgDTDはトレーニングステップを変更して、優先順位でソートされたボトルネックにデータを格納するようにモデルを強制する。
評価には、学習画像圧縮において最も一般的な構造の一つであるハイパープライアモデルにProgDTDを適用する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/publicdomain/zero/1.0/
- Abstract: Progressive compression allows images to start loading as low-resolution
versions, becoming clearer as more data is received. This increases user
experience when, for example, network connections are slow. Today, most
approaches for image compression, both classical and learned ones, are designed
to be non-progressive. This paper introduces ProgDTD, a training method that
transforms learned, non-progressive image compression approaches into
progressive ones. The design of ProgDTD is based on the observation that the
information stored within the bottleneck of a compression model commonly varies
in importance. To create a progressive compression model, ProgDTD modifies the
training steps to enforce the model to store the data in the bottleneck sorted
by priority. We achieve progressive compression by transmitting the data in
order of its sorted index. ProgDTD is designed for CNN-based learned image
compression models, does not need additional parameters, and has a customizable
range of progressiveness. For evaluation, we apply ProgDTDto the hyperprior
model, one of the most common structures in learned image compression. Our
experimental results show that ProgDTD performs comparably to its
non-progressive counterparts and other state-of-the-art progressive models in
terms of MS-SSIM and accuracy.
- Abstract(参考訳): プログレッシブ圧縮により、画像は低解像度バージョンとしてロードされ始め、より多くのデータが受信されるとより明確になる。
これにより、例えばネットワーク接続が遅い場合にユーザエクスペリエンスが向上する。
現在、画像圧縮のほとんどのアプローチ(古典的・学習的手法)は非プログレッシブに設計されている。
本稿では,学習中の非プログレッシブ画像圧縮アプローチをプログレッシブ画像に変換するトレーニング手法であるprogdtdを提案する。
ProgDTDの設計は、圧縮モデルのボトルネックに格納されている情報が一般的に重要度が異なるという観察に基づいている。
プログレッシブ圧縮モデルを作成するために、ProgDTDはトレーニングステップを変更して、優先順位でソートされたボトルネックにデータを格納するようにモデルを強制する。
ソートされたインデックスの順にデータを送信することで、プログレッシブ圧縮を実現する。
ProgDTDはCNNベースの学習画像圧縮モデル用に設計されており、追加のパラメータを必要としない。
評価のために、progdtdを学習画像圧縮における最も一般的な構造の1つであるハイパープリオールモデルに適用する。
実験の結果,progdtdはその非プログレッシブモデルと,ms-ssimと精度の点で最先端のプログレッシブモデルとを両立できることがわかった。
関連論文リスト
- Compression-Aware One-Step Diffusion Model for JPEG Artifact Removal [56.307484956135355]
CODiffはJPEGアーティファクト削除のための圧縮対応ワンステップ拡散モデルである。
明示的な学習と暗黙的な学習を組み合わせた二重学習戦略を提案する。
その結果,CODiffは定量的および視覚的品質指標の両方において,最近の先行手法を超越していることがわかった。
論文 参考訳(メタデータ) (2025-02-14T02:46:27Z) - CALLIC: Content Adaptive Learning for Lossless Image Compression [64.47244912937204]
CALLICは、学習したロスレス画像圧縮のための新しい最先端(SOTA)を設定する。
本稿では,畳み込みゲーティング操作を利用したコンテンツ認識型自己回帰自己保持機構を提案する。
エンコーディング中、低ランク行列を用いて深度の畳み込みを含む事前学習層を分解し、レート誘導プログレッシブファインタニング(RPFT)による画像検査にインクリメンタルウェイトを適応させる。
推定エントロピーにより下位順にソートされたパッチを徐々に増加させたRPFTファインチューン,学習過程の最適化,適応時間の短縮を実現した。
論文 参考訳(メタデータ) (2024-12-23T10:41:18Z) - Map-Assisted Remote-Sensing Image Compression at Extremely Low Bitrates [47.47031054057152]
生成モデルはRS画像を極低ビットレートストリームに圧縮するために研究されている。
これらの生成モデルは、非常に低ビットレート画像圧縮の極めて不適切な性質のため、視覚的に可視な画像の再構成に苦慮している。
本研究では,高現実性再構築を実現するために,自然画像に先行した事前学習拡散モデルを用いた画像圧縮フレームワークを提案する。
論文 参考訳(メタデータ) (2024-09-03T14:29:54Z) - Transferable Learned Image Compression-Resistant Adversarial Perturbations [66.46470251521947]
敵対的攻撃は容易に画像分類システムを破壊し、DNNベースの認識タスクの脆弱性を明らかにする。
我々は、学習した画像圧縮機を前処理モジュールとして利用する画像分類モデルをターゲットにした新しいパイプラインを提案する。
論文 参考訳(メタデータ) (2024-01-06T03:03:28Z) - Progressive Learning with Visual Prompt Tuning for Variable-Rate Image
Compression [60.689646881479064]
本稿では,変圧器を用いた可変レート画像圧縮のためのプログレッシブラーニングパラダイムを提案する。
視覚的プロンプトチューニングにインスパイアされた私たちは,エンコーダ側とデコーダ側でそれぞれ入力画像と隠蔽特徴のプロンプトを抽出するためにLPMを使用する。
提案モデルでは, 速度歪み特性の観点から現行の可変画像法よりも優れ, スクラッチから訓練した最先端の固定画像圧縮法にアプローチする。
論文 参考訳(メタデータ) (2023-11-23T08:29:32Z) - Implicit Neural Representations for Image Compression [103.78615661013623]
Inlicit Neural Representations (INRs) は、様々なデータ型の新規かつ効果的な表現として注目されている。
量子化、量子化を考慮した再学習、エントロピー符号化を含むINRに基づく最初の包括的圧縮パイプラインを提案する。
我々は、INRによるソース圧縮に対する我々のアプローチが、同様の以前の作業よりも大幅に優れていることに気付きました。
論文 参考訳(メタデータ) (2021-12-08T13:02:53Z) - Enhanced Invertible Encoding for Learned Image Compression [40.21904131503064]
本稿では,改良されたインバーチブルを提案する。
非可逆ニューラルネットワーク(INN)によるネットワークは、情報損失問題を大幅に軽減し、圧縮性を向上する。
Kodak, CLIC, Tecnick のデータセットによる実験結果から,本手法は既存の学習画像圧縮法よりも優れていることがわかった。
論文 参考訳(メタデータ) (2021-08-08T17:32:10Z) - Countering Adversarial Examples: Combining Input Transformation and
Noisy Training [15.561916630351947]
敵の例は、セキュリティに敏感な画像認識タスクに脅威をもたらす。
従来のJPEG圧縮はこれらの攻撃を防御するには不十分だが、画像の良さに突然の精度低下を引き起こす可能性がある。
我々は従来のJPEG圧縮アルゴリズムを改良し、NNにとってより好ましいものにしている。
論文 参考訳(メタデータ) (2021-06-25T02:46:52Z) - Learning End-to-End Lossy Image Compression: A Benchmark [90.35363142246806]
まず,学習した画像の圧縮方法に関する総合的な文献調査を行う。
本稿では,最先端の学習画像圧縮手法のマイルストーンについて述べるとともに,既存の幅広い作品について概観し,その歴史的開発ルートについて考察する。
エントロピー推定と信号再構成のための粗大な超高次モデルを導入することにより、速度歪み性能の向上を実現する。
論文 参考訳(メタデータ) (2020-02-10T13:13:43Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。