論文の概要: Deeply-Conditioned Image Compression via Self-Generated Priors
- arxiv url: http://arxiv.org/abs/2510.24437v1
- Date: Tue, 28 Oct 2025 14:04:19 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-29 15:35:37.216084
- Title: Deeply-Conditioned Image Compression via Self-Generated Priors
- Title(参考訳): 自己生成前処理による深部画像圧縮
- Authors: Zhineng Zhao, Zhihai He, Zikun Zhou, Siwei Ma, Yaowei Wang,
- Abstract要約: 我々は,自己生成前駆体(DCIC-sgp)を経由したDeeply-Conditioned Image Compression(Deeply-Conditioned Image Compression)という,機能的分解を前提としたフレームワークを提案する。
我々のフレームワークは、Kodak、CLIC、Tecnickデータセット上のVVCテストモデルVTM-12.1に対して、14.4%、15.7%、および15.1%のBDレートの大幅な削減を実現している。
- 参考スコア(独自算出の注目度): 75.29511865838812
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Learned image compression (LIC) has shown great promise for achieving high rate-distortion performance. However, current LIC methods are often limited in their capability to model the complex correlation structures inherent in natural images, particularly the entanglement of invariant global structures with transient local textures within a single monolithic representation. This limitation precipitates severe geometric deformation at low bitrates. To address this, we introduce a framework predicated on functional decomposition, which we term Deeply-Conditioned Image Compression via self-generated priors (DCIC-sgp). Our central idea is to first encode a potent, self-generated prior to encapsulate the image's structural backbone. This prior is subsequently utilized not as mere side-information, but to holistically modulate the entire compression pipeline. This deep conditioning, most critically of the analysis transform, liberates it to dedicate its representational capacity to the residual, high-entropy details. This hierarchical, dependency-driven approach achieves an effective disentanglement of information streams. Our extensive experiments validate this assertion; visual analysis demonstrates that our method substantially mitigates the geometric deformation artifacts that plague conventional codecs at low bitrates. Quantitatively, our framework establishes highly competitive performance, achieving significant BD-rate reductions of 14.4%, 15.7%, and 15.1% against the VVC test model VTM-12.1 on the Kodak, CLIC, and Tecnick datasets.
- Abstract(参考訳): 学習された画像圧縮(lic)は、高速な歪み性能を実現するために非常に有望である。
しかし、現在のlic法は、自然画像に固有の複雑な相関構造、特に1つのモノリシック表現の中に過渡的な局所的なテクスチャを持つ不変なグローバル構造の絡み合いをモデル化する能力に制限されることが多い。
この制限は、低ビットレートでの厳密な幾何学的変形を引き起こす。
そこで,本稿では,自己生成前処理(DCIC-sgp)によるDeeply-Conditioned Image Compression(Deeply-Conditioned Image Compression)という,関数分解に基づくフレームワークを提案する。
私たちの中心となる考え方は、画像の構造的バックボーンをカプセル化する前に、まず強力な自己生成をコード化することです。
この前者は、単にサイド情報としてではなく、圧縮パイプライン全体を均等に調整するために利用される。
この深い条件付けは、分析変換の最も重要な部分であり、その表現能力を残酷で高エントロピーな詳細に捧げるために解放する。
この階層的で依存性駆動型アプローチは、情報ストリームの効果的な切り離しを実現する。
視覚解析により,従来のコーデックを低ビットレートで悩ませる幾何学的変形アーティファクトが著しく軽減されることが示された。
定量的に、当社のフレームワークは高い競争性能を確立し、Kodak、CLIC、Tecnickデータセット上のVVCテストモデルであるVTM-12.1に対して、14.4%、15.7%、および15.1%のBDレートの大幅な削減を実現している。
関連論文リスト
- COLI: A Hierarchical Efficient Compressor for Large Images [18.697445453003983]
Inlicit Neural Representations (INR)は、空間座標から個々の画像のピクセル強度への連続的なマッピングを学習することで、有望な代替手段を提供する。
我々は、NeRV(Neural Representations for Videos)を利用した新しいフレームワークであるCOLI(Compressor for Large Images)を紹介する。
また,COLIは,最大4倍のNRVトレーニングをしながら,PSNRとSSIMの競合や優れた測定値を,ピクセル当たりのビット数(bpp)で連続的に達成することを示した。
論文 参考訳(メタデータ) (2025-07-15T16:07:07Z) - Multi-Scale Invertible Neural Network for Wide-Range Variable-Rate Learned Image Compression [90.59962443790593]
本稿では,制限を克服するために,可逆変換に基づく可変レート画像圧縮モデルを提案する。
具体的には、入力画像をマルチスケールの潜在表現にマッピングする、軽量なマルチスケール非可逆ニューラルネットワークを設計する。
実験結果から,提案手法は既存の可変レート法と比較して最先端性能を実現することが示された。
論文 参考訳(メタデータ) (2025-03-27T09:08:39Z) - FIPER: Generalizable Factorized Features for Robust Low-Level Vision Models [12.77409981295186]
低レベル視覚タスクに統一表現(Factized Features)を用いることを提案する。
これらのタスク間の共通原則によって動機付けられ、細かい画像の詳細を復元し保存する必要がある。
論文 参考訳(メタデータ) (2024-10-23T17:59:57Z) - Once-for-All: Controllable Generative Image Compression with Dynamic Granularity Adaptation [52.82508784748278]
本稿では,制御生成画像圧縮フレームワークである制御-GICを提案する。
制御-GICは、高忠実度と一般性圧縮を確保しつつ、広帯域での微粒化適応を可能にする。
実験により,制御-GICは高い柔軟かつ制御可能な適応を可能にし,その結果が最近の最先端手法よりも優れた性能を示した。
論文 参考訳(メタデータ) (2024-06-02T14:22:09Z) - Extreme Image Compression using Fine-tuned VQGANs [43.43014096929809]
本稿ではベクトル量子化(VQ)に基づく生成モデルを画像圧縮領域に導入する。
VQGANモデルによって学習されたコードブックは、強い表現能力をもたらす。
提案したフレームワークは、知覚的品質指向のメトリクスで最先端のコーデックより優れている。
論文 参考訳(メタデータ) (2023-07-17T06:14:19Z) - You Can Mask More For Extremely Low-Bitrate Image Compression [80.7692466922499]
近年,学習画像圧縮(lic)法は大きな進歩を遂げている。
licメソッドは、画像圧縮に不可欠な画像構造とテクスチャコンポーネントを明示的に探索することができない。
原画像の構造とテクスチャに基づいて可視パッチをサンプリングするDA-Maskを提案する。
極めて低ビットレート圧縮のために, lic と lic のエンドツーエンドを統一する最初のフレームワークである, 単純で効果的なマスク付き圧縮モデル (MCM) を提案する。
論文 参考訳(メタデータ) (2023-06-27T15:36:22Z) - Implicit Neural Representations for Image Compression [103.78615661013623]
Inlicit Neural Representations (INRs) は、様々なデータ型の新規かつ効果的な表現として注目されている。
量子化、量子化を考慮した再学習、エントロピー符号化を含むINRに基づく最初の包括的圧縮パイプラインを提案する。
我々は、INRによるソース圧縮に対する我々のアプローチが、同様の以前の作業よりも大幅に優れていることに気付きました。
論文 参考訳(メタデータ) (2021-12-08T13:02:53Z) - Learning End-to-End Lossy Image Compression: A Benchmark [90.35363142246806]
まず,学習した画像の圧縮方法に関する総合的な文献調査を行う。
本稿では,最先端の学習画像圧縮手法のマイルストーンについて述べるとともに,既存の幅広い作品について概観し,その歴史的開発ルートについて考察する。
エントロピー推定と信号再構成のための粗大な超高次モデルを導入することにより、速度歪み性能の向上を実現する。
論文 参考訳(メタデータ) (2020-02-10T13:13:43Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。