論文の概要: Joint Global and Local Hierarchical Priors for Learned Image Compression
- arxiv url: http://arxiv.org/abs/2112.04487v1
- Date: Wed, 8 Dec 2021 06:17:37 GMT
- ステータス: 処理完了
- システム内更新日: 2022-01-09 18:29:12.628728
- Title: Joint Global and Local Hierarchical Priors for Learned Image Compression
- Title(参考訳): 学習画像圧縮のための大域的および局所的階層的事前処理
- Authors: Jun-Hyuk Kim, Byeongho Heo, and Jong-Seok Lee
- Abstract要約: 近年,従来の手書き画像コーデックと比較して,学習画像圧縮法の性能が向上している。
本稿では,ローカル情報とグローバル情報の両方をコンテンツに依存した方法で活用する,情報変換(Information Transformer, Informer)と呼ばれる新しいエントロピーモデルを提案する。
実験により,Informer はKodak および Tecnick データセットの最先端手法よりも速度歪み性能が向上することを示した。
- 参考スコア(独自算出の注目度): 30.44884350320053
- License: http://creativecommons.org/licenses/by-sa/4.0/
- Abstract: Recently, learned image compression methods have shown superior performance
compared to the traditional hand-crafted image codecs including BPG. One of the
fundamental research directions in learned image compression is to develop
entropy models that accurately estimate the probability distribution of the
quantized latent representation. Like other vision tasks, most of the recent
learned entropy models are based on convolutional neural networks (CNNs).
However, CNNs have a limitation in modeling dependencies between distant
regions due to their nature of local connectivity, which can be a significant
bottleneck in image compression where reducing spatial redundancy is a key
point. To address this issue, we propose a novel entropy model called
Information Transformer (Informer) that exploits both local and global
information in a content-dependent manner using an attention mechanism. Our
experiments demonstrate that Informer improves rate-distortion performance over
the state-of-the-art methods on the Kodak and Tecnick datasets without the
quadratic computational complexity problem.
- Abstract(参考訳): 近年,BPGなどの手作り画像コーデックと比較して,学習画像圧縮法の性能が向上している。
学習画像圧縮の基本研究方向の1つは、量子化された潜在表現の確率分布を正確に推定するエントロピーモデルを開発することである。
他の視覚タスクと同様に、最近の学習エントロピーモデルのほとんどは畳み込みニューラルネットワーク(cnns)に基づいている。
しかし、CNNは局所接続の性質から遠方の領域間の依存性のモデリングに制限があり、空間冗長性の低減が鍵となる画像圧縮において重要なボトルネックとなる可能性がある。
この問題に対処するために,情報変換器(Informer)と呼ばれる新しいエントロピーモデルを提案する。
実験により,Informer は2次計算複雑性問題なく,Kodak および Tecnick データセット上での最先端手法よりも速度歪み性能を向上することを示した。
関連論文リスト
- Distance Weighted Trans Network for Image Completion [52.318730994423106]
本稿では,DWT(Distance-based Weighted Transformer)を利用した画像コンポーネント間の関係をよりよく理解するためのアーキテクチャを提案する。
CNNは、粗い事前の局所的なテクスチャ情報を強化するために使用される。
DWTブロックは、特定の粗いテクスチャやコヒーレントな視覚構造を復元するために使用される。
論文 参考訳(メタデータ) (2023-10-11T12:46:11Z) - Multi-Context Dual Hyper-Prior Neural Image Compression [10.349258638494137]
入力画像から局所的情報と大域的情報の両方を効率的にキャプチャするトランスフォーマーに基づく非線形変換を提案する。
また、2つの異なるハイパープライヤを組み込んだ新しいエントロピーモデルを導入し、潜在表現のチャネル間および空間的依存関係をモデル化する。
実験の結果,提案するフレームワークは,速度歪み性能の観点から,最先端の手法よりも優れた性能を示すことがわかった。
論文 参考訳(メタデータ) (2023-09-19T17:44:44Z) - Dynamic Kernel-Based Adaptive Spatial Aggregation for Learned Image
Compression [63.56922682378755]
本稿では,空間アグリゲーション機能の拡張に焦点をあて,動的カーネルベースの変換符号化を提案する。
提案したアダプティブアグリゲーションはカーネルオフセットを生成し、コンテント条件付き範囲の有効な情報をキャプチャして変換を支援する。
実験により,本手法は,最先端の学習手法と比較して,3つのベンチマークにおいて高い速度歪み性能が得られることを示した。
論文 参考訳(メタデータ) (2023-08-17T01:34:51Z) - The Devil Is in the Details: Window-based Attention for Image
Compression [58.1577742463617]
既存の学習画像圧縮モデルは畳み込みニューラルネットワーク(CNN)に基づいている。
本稿では,複数種類の注意機構が局所特徴学習に与える影響について検討し,より単純で効果的なウィンドウベースの局所的注意ブロックを提案する。
提案されたウィンドウベースのアテンションは非常に柔軟で、CNNとTransformerモデルを強化するためのプラグイン・アンド・プレイコンポーネントとして機能する可能性がある。
論文 参考訳(メタデータ) (2022-03-16T07:55:49Z) - Implicit Neural Representations for Image Compression [103.78615661013623]
Inlicit Neural Representations (INRs) は、様々なデータ型の新規かつ効果的な表現として注目されている。
量子化、量子化を考慮した再学習、エントロピー符号化を含むINRに基づく最初の包括的圧縮パイプラインを提案する。
我々は、INRによるソース圧縮に対する我々のアプローチが、同様の以前の作業よりも大幅に優れていることに気付きました。
論文 参考訳(メタデータ) (2021-12-08T13:02:53Z) - Causal Contextual Prediction for Learned Image Compression [36.08393281509613]
本稿では,逐次的復号化プロセスを利用して潜在空間における因果文脈のエントロピー予測を行うために,分離エントロピー符号化の概念を提案する。
チャネル間の潜伏を分離し、チャネル間の関係を利用して高度に情報的コンテキストを生成する因果コンテキストモデルを提案する。
また、未知点の正確な予測のためのグローバル参照ポイントを見つけることができる因果的大域的予測モデルを提案する。
論文 参考訳(メタデータ) (2020-11-19T08:15:10Z) - Learning Accurate Entropy Model with Global Reference for Image
Compression [22.171750277528222]
本稿では,局所的およびグローバルな文脈情報を活用するために,画像圧縮のための新しいグローバル参照モデルを提案する。
この研究の副産物は、パフォーマンスをさらに向上する平均シフトGDNモジュールの革新である。
論文 参考訳(メタデータ) (2020-10-16T11:27:46Z) - Learning Context-Based Non-local Entropy Modeling for Image Compression [140.64888994506313]
本稿では,文脈内でのグローバルな類似性を利用して,文脈モデリングのための非局所的操作を提案する。
エントロピーモデルはさらに、結合速度歪み最適化における速度損失として採用されている。
低歪みモデルのトレーニングに変換の幅が不可欠であることを考えると、最終的に変換のU-Netブロックを生成して、管理可能なメモリ消費と時間複雑性で幅を拡大する。
論文 参考訳(メタデータ) (2020-05-10T13:28:18Z) - Learning End-to-End Lossy Image Compression: A Benchmark [90.35363142246806]
まず,学習した画像の圧縮方法に関する総合的な文献調査を行う。
本稿では,最先端の学習画像圧縮手法のマイルストーンについて述べるとともに,既存の幅広い作品について概観し,その歴史的開発ルートについて考察する。
エントロピー推定と信号再構成のための粗大な超高次モデルを導入することにより、速度歪み性能の向上を実現する。
論文 参考訳(メタデータ) (2020-02-10T13:13:43Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。