論文の概要: Compact Latent Representation for Image Compression (CLRIC)
- arxiv url: http://arxiv.org/abs/2502.14937v1
- Date: Thu, 20 Feb 2025 13:20:56 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-02-24 19:42:03.761018
- Title: Compact Latent Representation for Image Compression (CLRIC)
- Title(参考訳): 画像圧縮(CLRIC)のためのコンパクト潜時表現法
- Authors: Ayman A. Ameen, Thomas Richter, André Kaup,
- Abstract要約: 現在の画像圧縮モデルは、各品質レベルごとに別々のモデルを必要とすることが多く、トレーニングとストレージの両方の観点からリソース集約化されている。
本稿では,既存の学習モデルの潜伏変数を知覚画像圧縮に用いる革新的な手法を提案する。
本手法は,モデル非依存と解像度非依存の両面において,最先端の学習画像圧縮モデルに匹敵する知覚品質を実現する。
- 参考スコア(独自算出の注目度): 16.428925911432344
- License:
- Abstract: Current image compression models often require separate models for each quality level, making them resource-intensive in terms of both training and storage. To address these limitations, we propose an innovative approach that utilizes latent variables from pre-existing trained models (such as the Stable Diffusion Variational Autoencoder) for perceptual image compression. Our method eliminates the need for distinct models dedicated to different quality levels. We employ overfitted learnable functions to compress the latent representation from the target model at any desired quality level. These overfitted functions operate in the latent space, ensuring low computational complexity, around $25.5$ MAC/pixel for a forward pass on images with dimensions $(1363 \times 2048)$ pixels. This approach efficiently utilizes resources during both training and decoding. Our method achieves comparable perceptual quality to state-of-the-art learned image compression models while being both model-agnostic and resolution-agnostic. This opens up new possibilities for the development of innovative image compression methods.
- Abstract(参考訳): 現在の画像圧縮モデルは、各品質レベルごとに別々のモデルを必要とすることが多く、トレーニングとストレージの両方の観点からリソース集約化されている。
これらの制約に対処するため,既存の訓練モデル(安定拡散変分オートエンコーダなど)の潜時変数を知覚画像圧縮に用いる革新的な手法を提案する。
我々の手法は、異なる品質レベルに特化した異なるモデルの必要性を排除します。
我々は、任意の品質レベルで対象モデルから潜在表現を圧縮するために、過度に適合した学習可能な関数を用いる。
これらの過度に適合した関数は潜在空間で動作し、約25.5ドルMAC/ピクセルで、次元が 13063 \times 2048) の画像の前方通過を保証している。
このアプローチは、トレーニングとデコードの両方でリソースを効率的に活用する。
本手法は,モデル非依存と解像度非依存の両面において,最先端の学習画像圧縮モデルに匹敵する知覚品質を実現する。
これにより、イノベーティブな画像圧縮手法の開発に新たな可能性が開ける。
関連論文リスト
- Compression-Aware One-Step Diffusion Model for JPEG Artifact Removal [56.307484956135355]
CODiffはJPEGアーティファクト削除のための圧縮対応ワンステップ拡散モデルである。
明示的な学習と暗黙的な学習を組み合わせた二重学習戦略を提案する。
その結果,CODiffは定量的および視覚的品質指標の両方において,最近の先行手法を超越していることがわかった。
論文 参考訳(メタデータ) (2025-02-14T02:46:27Z) - Scalable Image Coding for Humans and Machines Using Feature Fusion Network [0.0]
本稿では,多数の画像認識モデルと互換性のある人や機械を対象とした,学習に基づくスケーラブルな画像符号化手法を提案する。
提案手法では,パラメータ数を削減しつつ,画像圧縮モデルを効率よく組み合わせることを確認する。
論文 参考訳(メタデータ) (2024-05-15T07:31:48Z) - A Training-Free Defense Framework for Robust Learned Image Compression [48.41990144764295]
本研究では,学習した画像圧縮モデルの敵攻撃に対する堅牢性について検討する。
簡単な画像変換関数をベースとした無訓練防御手法を提案する。
論文 参考訳(メタデータ) (2024-01-22T12:50:21Z) - Transferable Learned Image Compression-Resistant Adversarial Perturbations [66.46470251521947]
敵対的攻撃は容易に画像分類システムを破壊し、DNNベースの認識タスクの脆弱性を明らかにする。
我々は、学習した画像圧縮機を前処理モジュールとして利用する画像分類モデルをターゲットにした新しいパイプラインを提案する。
論文 参考訳(メタデータ) (2024-01-06T03:03:28Z) - Variable-Rate Deep Image Compression through Spatially-Adaptive Feature
Transform [58.60004238261117]
空間特徴変換(SFT arXiv:1804.02815)に基づく多目的深部画像圧縮ネットワークを提案する。
本モデルは,任意の画素単位の品質マップによって制御される単一モデルを用いて,幅広い圧縮速度をカバーしている。
提案するフレームワークにより,様々なタスクに対してタスク対応の画像圧縮を行うことができる。
論文 参考訳(メタデータ) (2021-08-21T17:30:06Z) - Lossless Compression with Latent Variable Models [4.289574109162585]
我々は「非対称数値系を持つビットバック」(bb-ans)と呼ぶ潜在変数モデルを用いる。
この方法は、エンコードおよびデコードステップをインターリーブし、データのバッチ圧縮時に最適なレートを達成する。
我々は,深層生成モデルを用いた圧縮の高速プロトタイピングのために開発したモジュール型ソフトウェアフレームワークである'craystack'について述べる。
論文 参考訳(メタデータ) (2021-04-21T14:03:05Z) - Early Exit or Not: Resource-Efficient Blind Quality Enhancement for
Compressed Images [54.40852143927333]
ロスシー画像圧縮は、通信帯域を節約するために広範に行われ、望ましくない圧縮アーティファクトをもたらす。
圧縮画像に対する資源効率の高いブラインド品質向上手法(RBQE)を提案する。
提案手法は, 評価された画像の品質に応じて, 自動的にエンハンスメントを終了するか, 継続するかを決定することができる。
論文 参考訳(メタデータ) (2020-06-30T07:38:47Z) - Quantization Guided JPEG Artifact Correction [69.04777875711646]
我々はJPEGファイル量子化行列を用いたアーティファクト修正のための新しいアーキテクチャを開発した。
これにより、特定の品質設定のためにトレーニングされたモデルに対して、単一のモデルで最先端のパフォーマンスを達成できます。
論文 参考訳(メタデータ) (2020-04-17T00:10:08Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。