論文の概要: COMPASS: High-Efficiency Deep Image Compression with Arbitrary-scale
Spatial Scalability
- arxiv url: http://arxiv.org/abs/2309.07926v1
- Date: Mon, 11 Sep 2023 14:05:18 GMT
- ステータス: 処理完了
- システム内更新日: 2023-09-24 04:23:22.112548
- Title: COMPASS: High-Efficiency Deep Image Compression with Arbitrary-scale
Spatial Scalability
- Title(参考訳): CompASS:任意スケール空間拡張性を有する高効率深部画像圧縮
- Authors: Jongmin Park, Jooyoung Lee and Munchurl Kim
- Abstract要約: 本稿では,任意の空間拡張性をサポートする,新しいNNベースの空間拡張性画像圧縮手法Compassを提案する。
提案したコンパスは, 層数とそのスケール因子を任意に推定できる, 非常に柔軟な構造を有する。
実験結果から,我々のコンパスは, SHVCと最先端NNベース空間拡張画像圧縮法と比較して, 最大で-58.33%, 最大で-47.17%のBDレートを達成できた。
- 参考スコア(独自算出の注目度): 28.270200666064163
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Recently, neural network (NN)-based image compression studies have actively
been made and has shown impressive performance in comparison to traditional
methods. However, most of the works have focused on non-scalable image
compression (single-layer coding) while spatially scalable image compression
has drawn less attention although it has many applications. In this paper, we
propose a novel NN-based spatially scalable image compression method, called
COMPASS, which supports arbitrary-scale spatial scalability. Our proposed
COMPASS has a very flexible structure where the number of layers and their
respective scale factors can be arbitrarily determined during inference. To
reduce the spatial redundancy between adjacent layers for arbitrary scale
factors, our COMPASS adopts an inter-layer arbitrary scale prediction method,
called LIFF, based on implicit neural representation. We propose a combined RD
loss function to effectively train multiple layers. Experimental results show
that our COMPASS achieves BD-rate gain of -58.33% and -47.17% at maximum
compared to SHVC and the state-of-the-art NN-based spatially scalable image
compression method, respectively, for various combinations of scale factors.
Our COMPASS also shows comparable or even better coding efficiency than the
single-layer coding for various scale factors.
- Abstract(参考訳): 近年,ニューラルネットワークを用いた画像圧縮研究が盛んに行われ,従来の手法と比較して優れた性能を示している。
しかし、ほとんどの作品は、非スカラー画像圧縮(シングルレイヤー符号化)に焦点を当てているが、空間的にスケーラブルな画像圧縮は、多くの応用があるものの、あまり注目されていない。
本稿では,任意の空間スケーラビリティをサポートする新しいNNベースの空間拡張性画像圧縮手法CompASSを提案する。
提案するコンパスは層数とそれぞれのスケール係数を推論中に任意に決定できる非常に柔軟な構造である。
任意のスケール因子に対する隣接層間の空間冗長性を低減するため、我々は暗黙的な神経表現に基づくliffと呼ばれる層間任意スケール予測法を採用している。
複数の層を効果的に訓練するRD損失関数を提案する。
実験結果から, SHVC と NN を用いた空間拡張画像圧縮手法と比較して, BD レートの-58.33% と-47.17% を最大で達成した。
私たちのコンパスは、様々なスケールファクターのためのシングルレイヤーコーディングと同等あるいはそれ以上のコーディング効率を示している。
関連論文リスト
- DeepHQ: Learned Hierarchical Quantizer for Progressive Deep Image Coding [27.875207681547074]
プログレッシブ画像符号化(PIC)は、画像の様々な品質を単一のビットストリームに圧縮することを目的としている。
ニューラルネットワーク(NN)に基づくPICの研究は、その初期段階にある。
本稿では,まず,学習した量子化ステップサイズを各量子化レイヤの学習により活用するNNベースのプログレッシブコーディング手法を提案する。
論文 参考訳(メタデータ) (2024-08-22T06:32:53Z) - Multi-scale Unified Network for Image Classification [33.560003528712414]
CNNは、実世界のマルチスケール画像入力を扱う際に、性能と計算効率において顕著な課題に直面している。
本稿では,マルチスケール,統一ネットワーク,スケール不変制約からなるMultiscale Unified Network(MUSN)を提案する。
MUSNは精度が44.53%向上し、マルチスケールシナリオではFLOPを7.01-16.13%減少させる。
論文 参考訳(メタデータ) (2024-03-27T06:40:26Z) - Transferable Learned Image Compression-Resistant Adversarial Perturbations [66.46470251521947]
敵対的攻撃は容易に画像分類システムを破壊し、DNNベースの認識タスクの脆弱性を明らかにする。
我々は、学習した画像圧縮機を前処理モジュールとして利用する画像分類モデルをターゲットにした新しいパイプラインを提案する。
論文 参考訳(メタデータ) (2024-01-06T03:03:28Z) - Multiscale Augmented Normalizing Flows for Image Compression [17.441496966834933]
本稿では,非可逆潜在変数モデルである拡張正規化フローに対して,階層的潜在空間を適応させる新しい概念を提案する。
私たちの最高のパフォーマンスモデルは、比較対象のシングルスケールモデルよりも7%以上、平均的なコスト削減を実現しました。
論文 参考訳(メタデータ) (2023-05-09T13:42:43Z) - Effective Invertible Arbitrary Image Rescaling [77.46732646918936]
Invertible Neural Networks (INN)は、ダウンスケーリングとアップスケーリングのサイクルを共同で最適化することにより、アップスケーリングの精度を大幅に向上させることができる。
本研究の1つのモデルのみをトレーニングすることにより、任意の画像再スケーリングを実現するために、単純で効果的な非可逆的再スケーリングネットワーク(IARN)を提案する。
LR出力の知覚品質を損なうことなく、双方向任意再スケーリングにおいて最先端(SOTA)性能を実現する。
論文 参考訳(メタデータ) (2022-09-26T22:22:30Z) - Rank-Enhanced Low-Dimensional Convolution Set for Hyperspectral Image
Denoising [50.039949798156826]
本稿では,ハイパースペクトル(HS)画像の難解化問題に対処する。
ランク付き低次元畳み込み集合(Re-ConvSet)を提案する。
次に、Re-ConvSetを広く使われているU-Netアーキテクチャに組み込んで、HS画像復号法を構築する。
論文 参考訳(メタデータ) (2022-07-09T13:35:12Z) - Wavelet Feature Maps Compression for Image-to-Image CNNs [3.1542695050861544]
本稿では,高分解能なアクティベーションマップ圧縮をポイントワイド畳み込みと統合した新しい手法を提案する。
比較的小さく、より優雅な性能劣化を伴う1-4ビットのアクティベーション量子化に匹敵する圧縮率を達成する。
論文 参考訳(メタデータ) (2022-05-24T20:29:19Z) - Estimating the Resize Parameter in End-to-end Learned Image Compression [50.20567320015102]
本稿では,最近の画像圧縮モデルの速度歪みトレードオフをさらに改善する検索自由化フレームワークについて述べる。
提案手法により,Bjontegaard-Deltaレート(BD-rate)を最大10%向上させることができる。
論文 参考訳(メタデータ) (2022-04-26T01:35:02Z) - Modeling Image Quantization Tradeoffs for Optimal Compression [0.0]
ロスシー圧縮アルゴリズムは、圧縮率を上げるために高周波データを定量化することでトレードオフを狙う。
本稿では,Deep Learningとminimax損失関数を用いた量子化テーブルの最適化手法を提案する。
論文 参考訳(メタデータ) (2021-12-14T07:35:22Z) - Variable-Rate Deep Image Compression through Spatially-Adaptive Feature
Transform [58.60004238261117]
空間特徴変換(SFT arXiv:1804.02815)に基づく多目的深部画像圧縮ネットワークを提案する。
本モデルは,任意の画素単位の品質マップによって制御される単一モデルを用いて,幅広い圧縮速度をカバーしている。
提案するフレームワークにより,様々なタスクに対してタスク対応の画像圧縮を行うことができる。
論文 参考訳(メタデータ) (2021-08-21T17:30:06Z) - Asymmetric CNN for image super-resolution [102.96131810686231]
深層畳み込みニューラルネットワーク(CNN)は、過去5年間で低レベルビジョンに広く適用されています。
画像超解像のための非対称ブロック(AB)、mem?ory拡張ブロック(MEB)、高周波数特徴強調ブロック(HFFEB)からなる非対称CNN(ACNet)を提案する。
我々のACNetは、ブラインドノイズの単一画像超解像(SISR)、ブラインドSISR、ブラインドSISRを効果的に処理できる。
論文 参考訳(メタデータ) (2021-03-25T07:10:46Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。