論文の概要: Interpolation variable rate image compression
- arxiv url: http://arxiv.org/abs/2109.09280v1
- Date: Mon, 20 Sep 2021 03:09:41 GMT
- ステータス: 処理完了
- システム内更新日: 2021-09-22 05:29:06.696028
- Title: Interpolation variable rate image compression
- Title(参考訳): 補間可変レート画像圧縮
- Authors: Zhenhong Sun, Zhiyu Tan, Xiuyu Sun, Fangyi Zhang, Yichen Qian,
Dongyang Li, Hao Li
- Abstract要約: 異なるネットワークの集合が様々な圧縮速度に使用され、結果としてモデルストレージとトレーニングのコストが高い。
本稿では,InterpCA(InterpCA)モジュールを導入し,効率的な補間可変レート(IVR)ネットワークを提案する。
また,InterpCAのPSNR間隔は0.001dB,細レート間隔は0.0001 Bits-Per-Pixel (BPP) であり,ネットワーク内で9000レートであることを示す。
- 参考スコア(独自算出の注目度): 9.227865598115025
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Compression standards have been used to reduce the cost of image storage and
transmission for decades. In recent years, learned image compression methods
have been proposed and achieved compelling performance to the traditional
standards. However, in these methods, a set of different networks are used for
various compression rates, resulting in a high cost in model storage and
training. Although some variable-rate approaches have been proposed to reduce
the cost by using a single network, most of them brought some performance
degradation when applying fine rate control. To enable variable-rate control
without sacrificing the performance, we propose an efficient Interpolation
Variable-Rate (IVR) network, by introducing a handy Interpolation Channel
Attention (InterpCA) module in the compression network. With the use of two
hyperparameters for rate control and linear interpolation, the InterpCA
achieves a fine PSNR interval of 0.001 dB and a fine rate interval of 0.0001
Bits-Per-Pixel (BPP) with 9000 rates in the IVR network. Experimental results
demonstrate that the IVR network is the first variable-rate learned method that
outperforms VTM 9.0 (intra) in PSNR and Multiscale Structural Similarity
(MS-SSIM).
- Abstract(参考訳): 圧縮標準は、画像記憶と伝送のコストを何十年も削減するために使われてきた。
近年、学習した画像圧縮手法が提案され、従来の標準に説得力のある性能を達成している。
しかし、これらの手法では、様々な圧縮レートのために複数の異なるネットワークが使われ、モデルストレージとトレーニングに高いコストがかかる。
可変レートのアプローチは、単一ネットワークを使用することでコストを削減するために提案されているが、そのほとんどは、微調整による性能劣化をもたらした。
性能を犠牲にすることなく可変レート制御を実現するため、圧縮ネットワークに便利な補間チャネルアテンション(InterpCA)モジュールを導入し、効率的な補間可変レート(IVR)ネットワークを提案する。
速度制御と線形補間に2つのハイパーパラメータを用い、InterpCAは細かなPSNR間隔0.001dBと、IVRネットワークで9000レートの0.0001 Bits-Per-Pixel (BPP)の微細レート間隔を達成する。
実験結果から,PSNRにおけるVTM 9.0(intra)とMS-SSIM(Multiscale Structure similarity)を比較検討した。
関連論文リスト
- LoRC: Low-Rank Compression for LLMs KV Cache with a Progressive Compression Strategy [59.1298692559785]
キーバリュー(KV)キャッシュは、トランスフォーマーベースの自己回帰型大言語モデル(LLM)を提供する上で重要なコンポーネントである。
この問題を緩和するためのアプローチとしては、(1) アップサイクルステージに統合された効率的な注意変動、(2) テスト時のKVキャッシュ圧縮、(3) テスト時のKVキャッシュ圧縮がある。
そこで我々は,KV重み行列の低ランク近似を提案し,モデル再学習なしに既存のトランスフォーマーベースLCMとのプラグイン統合を実現する。
本手法は,テスト段階におけるアップサイクリング段階のモデルチューニングやタスク固有のプロファイリングを伴わずに機能するように設計されている。
論文 参考訳(メタデータ) (2024-10-04T03:10:53Z) - HPC: Hierarchical Progressive Coding Framework for Volumetric Video [39.403294185116]
ニューラルレージアンスフィールド(NeRF)に基づくボリュームビデオは、様々な3Dアプリケーションに対して大きな可能性を秘めている。
現在のNeRF圧縮は、ビデオ品質を調整できる柔軟性に欠けており、様々なネットワークやデバイス能力のための単一のモデル内である。
単一モデルを用いて可変性を実現する新しい階層型プログレッシブビデオ符号化フレームワークであるHPCを提案する。
論文 参考訳(メタデータ) (2024-07-12T06:34:24Z) - Progressive Learning with Visual Prompt Tuning for Variable-Rate Image
Compression [60.689646881479064]
本稿では,変圧器を用いた可変レート画像圧縮のためのプログレッシブラーニングパラダイムを提案する。
視覚的プロンプトチューニングにインスパイアされた私たちは,エンコーダ側とデコーダ側でそれぞれ入力画像と隠蔽特徴のプロンプトを抽出するためにLPMを使用する。
提案モデルでは, 速度歪み特性の観点から現行の可変画像法よりも優れ, スクラッチから訓練した最先端の固定画像圧縮法にアプローチする。
論文 参考訳(メタデータ) (2023-11-23T08:29:32Z) - Frequency-Aware Transformer for Learned Image Compression [64.28698450919647]
学習画像圧縮(lic)のためのマルチスケール指向性アナリシスを初めて実現した周波数認識変換器(FAT)ブロックを提案する。
FATブロックは、自然画像のマルチスケールおよび指向性周波数成分をキャプチャするための周波数分解ウィンドウアテンション(FDWA)モジュールを含む。
また、周波数変調フィードフォワードネットワーク(FMFFN)を導入し、異なる周波数成分を適応的に変調し、周波数歪み性能を向上させる。
論文 参考訳(メタデータ) (2023-10-25T05:59:25Z) - High-Fidelity Variable-Rate Image Compression via Invertible Activation
Transformation [24.379052026260034]
Invertible Activation Transformation (IAT) モジュールを提案する。
IATとQLevelは、画像圧縮モデルに、画像の忠実さを良く保ちながら、細かな可変レート制御能力を与える。
提案手法は,特に複数再符号化後に,最先端の可変レート画像圧縮法よりも大きなマージンで性能を向上する。
論文 参考訳(メタデータ) (2022-09-12T07:14:07Z) - Rate Distortion Characteristic Modeling for Neural Image Compression [59.25700168404325]
エンドツーエンドの最適化機能は、ニューラルイメージ圧縮(NIC)の優れた損失圧縮性能を提供する。
異なるモデルは、R-D空間の異なる点に到達するために訓練される必要がある。
深層ネットワークと統計モデルを用いてNICのR-D挙動を記述するために,本質的な数学的関数の定式化に努めている。
論文 参考訳(メタデータ) (2021-06-24T12:23:05Z) - Towards Compact CNNs via Collaborative Compression [166.86915086497433]
チャネルプルーニングとテンソル分解を結合してCNNモデルを圧縮する協調圧縮方式を提案する。
52.9%のFLOPを削減し、ResNet-50で48.4%のパラメータを削除しました。
論文 参考訳(メタデータ) (2021-05-24T12:07:38Z) - Manifold Regularized Dynamic Network Pruning [102.24146031250034]
本稿では,全インスタンスの多様体情報をプルーンドネットワークの空間に埋め込むことにより,冗長フィルタを動的に除去する新しいパラダイムを提案する。
提案手法の有効性をいくつかのベンチマークで検証し,精度と計算コストの両面で優れた性能を示す。
論文 参考訳(メタデータ) (2021-03-10T03:59:03Z) - Gradual Channel Pruning while Training using Feature Relevance Scores
for Convolutional Neural Networks [6.534515590778012]
プルーニングは、ディープネットワーク圧縮に使用される主要なアプローチの1つである。
そこで本研究では,新しいデータ駆動計測法を用いて,学習手法を訓練しながら,簡便な効率の段階的なチャネルプルーニングを提案する。
本稿では,VGGやResNetなどのアーキテクチャにおける提案手法の有効性を示す。
論文 参考訳(メタデータ) (2020-02-23T17:56:18Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。