論文の概要: ProgDTD: Progressive Learned Image Compression with Double-Tail-Drop Training
- arxiv url: http://arxiv.org/abs/2305.02145v2
- Date: Tue, 30 Apr 2024 15:20:03 GMT
- ステータス: 処理完了
- システム内更新日: 2024-05-01 20:07:22.834327
- Title: ProgDTD: Progressive Learned Image Compression with Double-Tail-Drop Training
- Title(参考訳): ProgDTD:Double-Tail-Drop Trainingによるプログレッシブラーニング画像圧縮
- Authors: Ali Hojjat, Janek Haberer, Olaf Landsiedel,
- Abstract要約: 本稿では,学習した非プログレッシブな画像圧縮アプローチをプログレッシブなものに変換する訓練手法であるProgDTDを紹介する。
プログレッシブ圧縮モデルを作成するために、ProgDTDはトレーニングステップを変更して、優先順位でソートされたボトルネックにデータを格納するようにモデルを強制する。
評価には、学習画像圧縮において最も一般的な構造の一つであるハイパープライアモデルにProgDTDを適用する。
- 参考スコア(独自算出の注目度): 0.44998333629984877
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Progressive compression allows images to start loading as low-resolution versions, becoming clearer as more data is received. This increases user experience when, for example, network connections are slow. Today, most approaches for image compression, both classical and learned ones, are designed to be non-progressive. This paper introduces ProgDTD, a training method that transforms learned, non-progressive image compression approaches into progressive ones. The design of ProgDTD is based on the observation that the information stored within the bottleneck of a compression model commonly varies in importance. To create a progressive compression model, ProgDTD modifies the training steps to enforce the model to store the data in the bottleneck sorted by priority. We achieve progressive compression by transmitting the data in order of its sorted index. ProgDTD is designed for CNN-based learned image compression models, does not need additional parameters, and has a customizable range of progressiveness. For evaluation, we apply ProgDTDto the hyperprior model, one of the most common structures in learned image compression. Our experimental results show that ProgDTD performs comparably to its non-progressive counterparts and other state-of-the-art progressive models in terms of MS-SSIM and accuracy.
- Abstract(参考訳): プログレッシブ圧縮により、画像は低解像度バージョンとしてロードを開始することができ、より多くのデータが受信されるとより明確になる。
これにより、例えばネットワーク接続が遅い場合、ユーザエクスペリエンスが向上する。
現在、画像圧縮のほとんどのアプローチ(古典的・学習的手法)は非プログレッシブに設計されている。
本稿では,学習した非プログレッシブな画像圧縮アプローチをプログレッシブなものに変換する訓練手法であるProgDTDを紹介する。
ProgDTDの設計は、圧縮モデルのボトルネックに格納されている情報が一般的に重要度が異なるという観察に基づいている。
プログレッシブ圧縮モデルを作成するために、ProgDTDはトレーニングステップを変更して、優先順位でソートされたボトルネックにデータを格納するようにモデルを強制する。
我々は、そのソートインデックスの順にデータを送信することで、プログレッシブ圧縮を実現する。
ProgDTDはCNNベースの学習画像圧縮モデル用に設計されており、追加のパラメータを必要としない。
評価のために、学習画像圧縮において最も一般的な構造の一つであるハイパープライアモデルにProgDTDを適用する。
実験の結果,ProgDTDは,MS-SSIMと精度の観点から,非プログレッシブ・プログレッシブ・モデルや他の最先端のプログレッシブ・モデルと相容れない性能を示した。
関連論文リスト
- Map-Assisted Remote-Sensing Image Compression at Extremely Low Bitrates [47.47031054057152]
生成モデルはRS画像を極低ビットレートストリームに圧縮するために研究されている。
これらの生成モデルは、非常に低ビットレート画像圧縮の極めて不適切な性質のため、視覚的に可視な画像の再構成に苦慮している。
本研究では,高現実性再構築を実現するために,自然画像に先行した事前学習拡散モデルを用いた画像圧縮フレームワークを提案する。
論文 参考訳(メタデータ) (2024-09-03T14:29:54Z) - Zero-Shot Image Compression with Diffusion-Based Posterior Sampling [34.50287066865267]
本研究は、既存の事前学習拡散モデルで学習された画像を利用して、損失画像圧縮の課題を解決することで、このギャップに対処する。
PSC (Posterior Sampling-based Compression) は, ゼロショット拡散を用いた後部サンプルを用いた。
PSCは,画像圧縮のための事前学習拡散モデルと後部サンプルのさらなる探索を行うため,確立された手法と比較して,競争力のある結果が得られる。
論文 参考訳(メタデータ) (2024-07-13T14:24:22Z) - Transferable Learned Image Compression-Resistant Adversarial Perturbations [66.46470251521947]
敵対的攻撃は容易に画像分類システムを破壊し、DNNベースの認識タスクの脆弱性を明らかにする。
我々は、学習した画像圧縮機を前処理モジュールとして利用する画像分類モデルをターゲットにした新しいパイプラインを提案する。
論文 参考訳(メタデータ) (2024-01-06T03:03:28Z) - Progressive Learning with Visual Prompt Tuning for Variable-Rate Image
Compression [60.689646881479064]
本稿では,変圧器を用いた可変レート画像圧縮のためのプログレッシブラーニングパラダイムを提案する。
視覚的プロンプトチューニングにインスパイアされた私たちは,エンコーダ側とデコーダ側でそれぞれ入力画像と隠蔽特徴のプロンプトを抽出するためにLPMを使用する。
提案モデルでは, 速度歪み特性の観点から現行の可変画像法よりも優れ, スクラッチから訓練した最先端の固定画像圧縮法にアプローチする。
論文 参考訳(メタデータ) (2023-11-23T08:29:32Z) - Backdoor Attacks Against Deep Image Compression via Adaptive Frequency
Trigger [106.10954454667757]
本稿では,学習画像圧縮モデルに対する複数のトリガーを用いたバックドアアタックを提案する。
既存の圧縮システムや標準で広く使われている離散コサイン変換(DCT)に動機付けられ,周波数ベースのトリガーインジェクションモデルを提案する。
論文 参考訳(メタデータ) (2023-02-28T15:39:31Z) - Crowd Counting on Heavily Compressed Images with Curriculum Pre-Training [90.76576712433595]
ディープニューラルネットワークによって処理された画像に損失圧縮を適用することで、大幅な精度低下につながる可能性がある。
カリキュラム学習のパラダイムに着想を得て,圧縮画像の群集カウントのためのカリキュラム事前学習(CPT)と呼ばれる新しいトレーニング手法を提案する。
論文 参考訳(メタデータ) (2022-08-15T08:43:21Z) - Implicit Neural Representations for Image Compression [103.78615661013623]
Inlicit Neural Representations (INRs) は、様々なデータ型の新規かつ効果的な表現として注目されている。
量子化、量子化を考慮した再学習、エントロピー符号化を含むINRに基づく最初の包括的圧縮パイプラインを提案する。
我々は、INRによるソース圧縮に対する我々のアプローチが、同様の以前の作業よりも大幅に優れていることに気付きました。
論文 参考訳(メタデータ) (2021-12-08T13:02:53Z) - Enhanced Invertible Encoding for Learned Image Compression [40.21904131503064]
本稿では,改良されたインバーチブルを提案する。
非可逆ニューラルネットワーク(INN)によるネットワークは、情報損失問題を大幅に軽減し、圧縮性を向上する。
Kodak, CLIC, Tecnick のデータセットによる実験結果から,本手法は既存の学習画像圧縮法よりも優れていることがわかった。
論文 参考訳(メタデータ) (2021-08-08T17:32:10Z) - Countering Adversarial Examples: Combining Input Transformation and
Noisy Training [15.561916630351947]
敵の例は、セキュリティに敏感な画像認識タスクに脅威をもたらす。
従来のJPEG圧縮はこれらの攻撃を防御するには不十分だが、画像の良さに突然の精度低下を引き起こす可能性がある。
我々は従来のJPEG圧縮アルゴリズムを改良し、NNにとってより好ましいものにしている。
論文 参考訳(メタデータ) (2021-06-25T02:46:52Z) - Learning End-to-End Lossy Image Compression: A Benchmark [90.35363142246806]
まず,学習した画像の圧縮方法に関する総合的な文献調査を行う。
本稿では,最先端の学習画像圧縮手法のマイルストーンについて述べるとともに,既存の幅広い作品について概観し,その歴史的開発ルートについて考察する。
エントロピー推定と信号再構成のための粗大な超高次モデルを導入することにより、速度歪み性能の向上を実現する。
論文 参考訳(メタデータ) (2020-02-10T13:13:43Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。