論文の概要: DeepFGS: Fine-Grained Scalable Coding for Learned Image Compression
- arxiv url: http://arxiv.org/abs/2201.01173v1
- Date: Tue, 4 Jan 2022 15:03:13 GMT
- ステータス: 処理完了
- システム内更新日: 2022-01-05 14:35:07.334460
- Title: DeepFGS: Fine-Grained Scalable Coding for Learned Image Compression
- Title(参考訳): deepfgs: 学習画像圧縮のための細粒度スケーラブルコーディング
- Authors: Yi Ma, Yongqi Zhai and Ronggang Wang
- Abstract要約: 最初に学習したきめ細かなスケーラブルな画像圧縮モデル(DeepFGS)を提案する。
本稿では,特徴分離バックボーンを導入し,画像情報を基本的かつスケーラブルな特徴に分割し,情報再構成戦略を通じて特徴チャネルを再分割する。
実験により,私たちのDeepFGSはPSNRおよびMS-SSIMメトリクスにおいて,学習ベースでスケーラブルな画像圧縮モデルや従来型のスケーラブルな画像コーデックよりも優れていることが示された。
- 参考スコア(独自算出の注目度): 22.933872281183497
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Scalable coding, which can adapt to channel bandwidth variation, performs
well in today's complex network environment. However, the existing scalable
compression methods face two challenges: reduced compression performance and
insufficient scalability. In this paper, we propose the first learned
fine-grained scalable image compression model (DeepFGS) to overcome the above
two shortcomings. Specifically, we introduce a feature separation backbone to
divide the image information into basic and scalable features, then
redistribute the features channel by channel through an information
rearrangement strategy. In this way, we can generate a continuously scalable
bitstream via one-pass encoding. In addition, we reuse the decoder to reduce
the parameters and computational complexity of DeepFGS. Experiments demonstrate
that our DeepFGS outperforms all learning-based scalable image compression
models and conventional scalable image codecs in PSNR and MS-SSIM metrics. To
the best of our knowledge, our DeepFGS is the first exploration of learned
fine-grained scalable coding, which achieves the finest scalability compared
with learning-based methods.
- Abstract(参考訳): チャネル帯域幅のばらつきに適応できるスケーラブルコーディングは、今日の複雑なネットワーク環境ではうまく機能する。
しかし、既存のスケーラブル圧縮手法は圧縮性能の低下とスケーラビリティの不足という2つの課題に直面している。
本稿では,上記の2つの欠点を克服するために,初めて学習された微細粒度スケーラブル画像圧縮モデル(DeepFGS)を提案する。
具体的には,画像情報を基本かつスケーラブルな特徴に分割する機能分離バックボーンを導入し,情報再構成戦略を通じて特徴チャネルをチャネル毎に再分配する。
このようにして、ワンパスエンコーディングによって連続的にスケーラブルなビットストリームを生成することができる。
さらに,DeepFGSのパラメータと計算複雑性を低減するためにデコーダを再利用する。
実験により,私たちのDeepFGSはPSNRおよびMS-SSIMメトリクスにおいて,学習ベースでスケーラブルな画像圧縮モデルや従来型のスケーラブルな画像コーデックよりも優れていることが示された。
私たちの知る限りでは、私たちのDeepFGSは、学習した細粒度でスケーラブルなコーディングを初めて探求したものです。
関連論文リスト
- Large Language Models for Lossless Image Compression: Next-Pixel Prediction in Language Space is All You Need [53.584140947828004]
前例のないインテリジェンスを持つ言語大モデル(LLM)は、様々なデータモダリティのための汎用ロスレス圧縮機である。
P$2$-LLMは,様々な入念な洞察と方法論を統合した次世代の予測型LLMである。
ベンチマークデータセットの実験では、P$2$-LLMがSOTAの古典的および学習的コーデックに勝ることを示した。
論文 参考訳(メタデータ) (2024-11-19T12:15:40Z) - You Can Mask More For Extremely Low-Bitrate Image Compression [80.7692466922499]
近年,学習画像圧縮(lic)法は大きな進歩を遂げている。
licメソッドは、画像圧縮に不可欠な画像構造とテクスチャコンポーネントを明示的に探索することができない。
原画像の構造とテクスチャに基づいて可視パッチをサンプリングするDA-Maskを提案する。
極めて低ビットレート圧縮のために, lic と lic のエンドツーエンドを統一する最初のフレームワークである, 単純で効果的なマスク付き圧縮モデル (MCM) を提案する。
論文 参考訳(メタデータ) (2023-06-27T15:36:22Z) - Exploring Resolution Fields for Scalable Image Compression with
Uncertainty Guidance [47.96024424475888]
本研究では,スケーラブルな画像圧縮における分解能場の可能性について検討する。
本稿では,より適応的で多目的な圧縮を実現するための相互ピラミッドネットワーク(RPN)を提案する。
実験は、既存の古典的およびディープラーニングベースのスケーラブルコーデックに対するRPNの優位性を示している。
論文 参考訳(メタデータ) (2023-06-15T08:26:24Z) - Deep Lossy Plus Residual Coding for Lossless and Near-lossless Image
Compression [85.93207826513192]
本稿では、損失のない画像圧縮とほぼロスレス画像圧縮の両面において、統合された強力な深い損失+残差(DLPR)符号化フレームワークを提案する。
VAEのアプローチにおける連立損失と残留圧縮の問題を解く。
ほぼロスレスモードでは、元の残差を量子化し、与えられた$ell_infty$エラー境界を満たす。
論文 参考訳(メタデータ) (2022-09-11T12:11:56Z) - Asymmetric Learned Image Compression with Multi-Scale Residual Block,
Importance Map, and Post-Quantization Filtering [15.056672221375104]
ディープラーニングに基づく画像圧縮は、最新のH.266/VVCよりも高いレート歪み(R-D)性能を実現している。
多くの先導的な学習スキームは、パフォーマンスと複雑さの間の良いトレードオフを維持することができません。
そこで本研究では,R-D の性能を技術状況よりも低い複雑さで実現した,効率的かつ効果的な画像符号化フレームワークを提案する。
論文 参考訳(メタデータ) (2022-06-21T09:34:29Z) - Implicit Neural Representations for Image Compression [103.78615661013623]
Inlicit Neural Representations (INRs) は、様々なデータ型の新規かつ効果的な表現として注目されている。
量子化、量子化を考慮した再学習、エントロピー符号化を含むINRに基づく最初の包括的圧縮パイプラインを提案する。
我々は、INRによるソース圧縮に対する我々のアプローチが、同様の以前の作業よりも大幅に優れていることに気付きました。
論文 参考訳(メタデータ) (2021-12-08T13:02:53Z) - Enhanced Invertible Encoding for Learned Image Compression [40.21904131503064]
本稿では,改良されたインバーチブルを提案する。
非可逆ニューラルネットワーク(INN)によるネットワークは、情報損失問題を大幅に軽減し、圧縮性を向上する。
Kodak, CLIC, Tecnick のデータセットによる実験結果から,本手法は既存の学習画像圧縮法よりも優れていることがわかった。
論文 参考訳(メタデータ) (2021-08-08T17:32:10Z) - How to Exploit the Transferability of Learned Image Compression to
Conventional Codecs [25.622863999901874]
本稿では,学習した画像の符号化をサロゲートとして利用して,画像の符号化を最適化する方法を示す。
提案手法は,MS-SSIM歪みをデコードオーバーヘッドを伴わずに20%以上の速度改善で補正するために,従来の画像を再構成することができる。
論文 参考訳(メタデータ) (2020-12-03T12:34:51Z) - Modeling Lost Information in Lossy Image Compression [72.69327382643549]
ロスシー画像圧縮は、デジタル画像の最もよく使われる演算子の1つである。
Invertible Lossy Compression (ILC) と呼ばれる新しい非可逆的フレームワークを提案する。
論文 参考訳(メタデータ) (2020-06-22T04:04:56Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。