論文の概要: Content-oriented learned image compression
- arxiv url: http://arxiv.org/abs/2207.14168v2
- Date: Mon, 1 Aug 2022 04:49:01 GMT
- ステータス: 処理完了
- システム内更新日: 2022-08-02 11:03:02.574961
- Title: Content-oriented learned image compression
- Title(参考訳): コンテンツ指向学習画像圧縮
- Authors: Meng Li, Shangyin Gao, Yihui Feng, Yibo Shi, and Jing Wang
- Abstract要約: 本稿では,異なる戦略で異なる種類の画像コンテンツを扱う,コンテンツ指向の画像圧縮手法を提案する。
実験の結果,提案手法は最先端の学習画像圧縮手法や古典的手法と比較して,競合する主観的な結果が得られることがわかった。
- 参考スコア(独自算出の注目度): 7.069862236979834
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In recent years, with the development of deep neural networks, end-to-end
optimized image compression has made significant progress and exceeded the
classic methods in terms of rate-distortion performance. However, most
learning-based image compression methods are unlabeled and do not consider
image semantics or content when optimizing the model. In fact, human eyes have
different sensitivities to different content, so the image content also needs
to be considered. In this paper, we propose a content-oriented image
compression method, which handles different kinds of image contents with
different strategies. Extensive experiments show that the proposed method
achieves competitive subjective results compared with state-of-the-art
end-to-end learned image compression methods or classic methods.
- Abstract(参考訳): 近年、ディープニューラルネットワークの発展に伴い、エンドツーエンドに最適化された画像圧縮が大幅に進歩し、レート歪み性能の点で古典的手法を上回っている。
しかし、ほとんどの学習ベースの画像圧縮手法はラベルがなく、モデルを最適化する際に画像意味論や内容を考慮していない。
実際、人間の目は異なる内容に対して異なる感性を持っているため、画像の内容も考慮する必要がある。
本稿では,様々な種類の画像コンテンツを異なる戦略で処理する,コンテンツ指向の画像圧縮手法を提案する。
実験の結果,提案手法は最先端の学習画像圧縮手法や古典的手法と比較して,競合する主観的な結果が得られることがわかった。
関連論文リスト
- Transferable Learned Image Compression-Resistant Adversarial Perturbations [66.46470251521947]
敵対的攻撃は容易に画像分類システムを破壊し、DNNベースの認識タスクの脆弱性を明らかにする。
我々は、学習した画像圧縮機を前処理モジュールとして利用する画像分類モデルをターゲットにした新しいパイプラインを提案する。
論文 参考訳(メタデータ) (2024-01-06T03:03:28Z) - HFLIC: Human Friendly Perceptual Learned Image Compression with
Reinforced Transform [16.173583505483272]
現在の学習ベースの画像圧縮法は、人間に優しい圧縮を犠牲にし、長い復号時間を必要とすることが多い。
本稿では、既存の画像圧縮モデルのバックボーンネットワークとロス関数の強化を提案し、人間の知覚と効率の改善に焦点をあてる。
論文 参考訳(メタデータ) (2023-05-12T14:35:27Z) - Multi-Modality Deep Network for JPEG Artifacts Reduction [33.02405073842042]
テキスト誘導JPEGアーティファクト削減のためのマルチモーダル融合学習法を提案する。
提案手法は,最先端の手法と比較して,より優れたデブロッキング結果が得られる。
論文 参考訳(メタデータ) (2023-05-04T11:54:02Z) - Multi-Modality Deep Network for Extreme Learned Image Compression [31.532613540054697]
本稿では,テキストのセマンティック情報を先行情報として利用して画像圧縮性能を誘導する,テキスト誘導画像圧縮のためのマルチモーダル機械学習手法を提案する。
さらに,画像とテキストの特徴を融合させるために,画像テキストアテンションモジュールと画像検索サプリメントモジュールを採用し,セマンティック・コンシステント・ロスを改良し,セマンティック・完全再構築を実現する。
論文 参考訳(メタデータ) (2023-04-26T14:22:59Z) - Estimating the Resize Parameter in End-to-end Learned Image Compression [50.20567320015102]
本稿では,最近の画像圧縮モデルの速度歪みトレードオフをさらに改善する検索自由化フレームワークについて述べる。
提案手法により,Bjontegaard-Deltaレート(BD-rate)を最大10%向上させることができる。
論文 参考訳(メタデータ) (2022-04-26T01:35:02Z) - Early Exit or Not: Resource-Efficient Blind Quality Enhancement for
Compressed Images [54.40852143927333]
ロスシー画像圧縮は、通信帯域を節約するために広範に行われ、望ましくない圧縮アーティファクトをもたらす。
圧縮画像に対する資源効率の高いブラインド品質向上手法(RBQE)を提案する。
提案手法は, 評価された画像の品質に応じて, 自動的にエンハンスメントを終了するか, 継続するかを決定することができる。
論文 参考訳(メタデータ) (2020-06-30T07:38:47Z) - Quantization Guided JPEG Artifact Correction [69.04777875711646]
我々はJPEGファイル量子化行列を用いたアーティファクト修正のための新しいアーキテクチャを開発した。
これにより、特定の品質設定のためにトレーニングされたモデルに対して、単一のモデルで最先端のパフォーマンスを達成できます。
論文 参考訳(メタデータ) (2020-04-17T00:10:08Z) - Discernible Image Compression [124.08063151879173]
本稿では、外観と知覚の整合性の両方を追求し、圧縮画像を作成することを目的とする。
エンコーダ・デコーダ・フレームワークに基づいて,事前学習したCNNを用いて,オリジナル画像と圧縮画像の特徴を抽出する。
ベンチマーク実験により,提案手法を用いて圧縮した画像は,その後の視覚認識・検出モデルでもよく認識できることが示された。
論文 参考訳(メタデータ) (2020-02-17T07:35:08Z) - Learning End-to-End Lossy Image Compression: A Benchmark [90.35363142246806]
まず,学習した画像の圧縮方法に関する総合的な文献調査を行う。
本稿では,最先端の学習画像圧縮手法のマイルストーンについて述べるとともに,既存の幅広い作品について概観し,その歴史的開発ルートについて考察する。
エントロピー推定と信号再構成のための粗大な超高次モデルを導入することにより、速度歪み性能の向上を実現する。
論文 参考訳(メタデータ) (2020-02-10T13:13:43Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。