論文の概要: GOLLIC: Learning Global Context beyond Patches for Lossless
High-Resolution Image Compression
- arxiv url: http://arxiv.org/abs/2210.03301v1
- Date: Fri, 7 Oct 2022 03:15:02 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-10 13:43:11.055352
- Title: GOLLIC: Learning Global Context beyond Patches for Lossless
High-Resolution Image Compression
- Title(参考訳): GOLLIC: ロスレス高解像度画像圧縮のためのパッチ以外のグローバルコンテキストを学習する
- Authors: Yuan Lan, Liang Qin, Zhaoyi Sun, Yang Xiang, Jie Sun
- Abstract要約: 本稿では,高解像度画像の長期依存性を捉えるために,大域的コンテキストを持つ階層型潜在変数モデルを提案する。
グローバルコンテキストモデルでは,コーデックやディープラーニングモデルと比較して圧縮比が向上することを示す。
- 参考スコア(独自算出の注目度): 10.065286986365697
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Neural-network-based approaches recently emerged in the field of data
compression and have already led to significant progress in image compression,
especially in achieving a higher compression ratio. In the lossless image
compression scenario, however, existing methods often struggle to learn a
probability model of full-size high-resolution images due to the limitation of
the computation source. The current strategy is to crop high-resolution images
into multiple non-overlapping patches and process them independently. This
strategy ignores long-term dependencies beyond patches, thus limiting modeling
performance. To address this problem, we propose a hierarchical latent variable
model with a global context to capture the long-term dependencies of
high-resolution images. Besides the latent variable unique to each patch, we
introduce shared latent variables between patches to construct the global
context. The shared latent variables are extracted by a self-supervised
clustering module inside the model's encoder. This clustering module assigns
each patch the confidence that it belongs to any cluster. Later, shared latent
variables are learned according to latent variables of patches and their
confidence, which reflects the similarity of patches in the same cluster and
benefits the global context modeling. Experimental results show that our global
context model improves compression ratio compared to the engineered codecs and
deep learning models on three benchmark high-resolution image datasets, DIV2K,
CLIC.pro, and CLIC.mobile.
- Abstract(参考訳): ニューラルネットワークベースのアプローチは、データ圧縮の分野で最近登場し、画像圧縮の大幅な進歩、特に高い圧縮率を達成している。
しかし、ロスレス画像圧縮のシナリオでは、既存の手法は、計算源の制限により、フルサイズの高解像度画像の確率モデルを学ぶのに苦労することが多い。
現在の戦略は、高解像度画像を複数の非重複パッチに取り込み、独立して処理することだ。
この戦略はパッチ以外の長期的な依存関係を無視し、モデリングのパフォーマンスを制限する。
そこで本稿では,高分解能画像の長期依存性を捉えるために,グローバルコンテキストを持つ階層的潜在変数モデルを提案する。
各パッチに固有の潜在変数に加えて、グローバルコンテキストを構築するためにパッチ間で共通潜在変数を導入しました。
共有潜在変数は、モデルエンコーダ内の自己教師ありクラスタリングモジュールによって抽出される。
このクラスタリングモジュールは、どのクラスタに属するかの信頼を各パッチに割り当てる。
その後、共有潜在変数は、パッチの潜在変数とその信頼性に基づいて学習され、同じクラスタ内のパッチの類似性を反映し、グローバルコンテキストモデリングの恩恵を受ける。
実験結果から,我々のグローバルコンテキストモデルは,DIV2K,CLIC.pro,CLIC.mobileの3つのベンチマーク高解像度画像データセットのコーデックやディープラーニングモデルと比較して圧縮比が向上することが示された。
関連論文リスト
- MLIC++: Linear Complexity Multi-Reference Entropy Modeling for Learned
Image Compression [30.71965784982577]
我々はMEM++を導入し、潜在表現に固有の様々な相関関係をキャプチャする。
MEM++は最先端のパフォーマンスを実現し、PSNRのVTM-17.0と比較して、KodakデータセットのBDレートを13.39%削減した。
MLIC++はリニアGPUメモリを解像度で表示し、高解像度の画像符号化に非常に適している。
論文 参考訳(メタデータ) (2023-07-28T09:11:37Z) - Multiscale Augmented Normalizing Flows for Image Compression [17.441496966834933]
本稿では,非可逆潜在変数モデルである拡張正規化フローに対して,階層的潜在空間を適応させる新しい概念を提案する。
私たちの最高のパフォーマンスモデルは、比較対象のシングルスケールモデルよりも7%以上、平均的なコスト削減を実現しました。
論文 参考訳(メタデータ) (2023-05-09T13:42:43Z) - Any-resolution Training for High-resolution Image Synthesis [55.19874755679901]
生成モデルは、様々な大きさの自然画像であっても、一定の解像度で動作します。
すべてのピクセルが重要であり、そのネイティブ解像度で収集された可変サイズのイメージを持つデータセットを作成する、と我々は主張する。
ランダムなスケールでパッチをサンプリングし、可変出力解像度で新しいジェネレータを訓練するプロセスである。
論文 参考訳(メタデータ) (2022-04-14T17:59:31Z) - Joint Global and Local Hierarchical Priors for Learned Image Compression [30.44884350320053]
近年,従来の手書き画像コーデックと比較して,学習画像圧縮法の性能が向上している。
本稿では,ローカル情報とグローバル情報の両方をコンテンツに依存した方法で活用する,情報変換(Information Transformer, Informer)と呼ばれる新しいエントロピーモデルを提案する。
実験により,Informer はKodak および Tecnick データセットの最先端手法よりも速度歪み性能が向上することを示した。
論文 参考訳(メタデータ) (2021-12-08T06:17:37Z) - Variable-Rate Deep Image Compression through Spatially-Adaptive Feature
Transform [58.60004238261117]
空間特徴変換(SFT arXiv:1804.02815)に基づく多目的深部画像圧縮ネットワークを提案する。
本モデルは,任意の画素単位の品質マップによって制御される単一モデルを用いて,幅広い圧縮速度をカバーしている。
提案するフレームワークにより,様々なタスクに対してタスク対応の画像圧縮を行うことができる。
論文 参考訳(メタデータ) (2021-08-21T17:30:06Z) - Lossless Compression with Latent Variable Models [4.289574109162585]
我々は「非対称数値系を持つビットバック」(bb-ans)と呼ぶ潜在変数モデルを用いる。
この方法は、エンコードおよびデコードステップをインターリーブし、データのバッチ圧縮時に最適なレートを達成する。
我々は,深層生成モデルを用いた圧縮の高速プロトタイピングのために開発したモジュール型ソフトウェアフレームワークである'craystack'について述べる。
論文 参考訳(メタデータ) (2021-04-21T14:03:05Z) - InfinityGAN: Towards Infinite-Resolution Image Synthesis [92.40782797030977]
任意の解像度画像を生成するinfinityganを提案する。
少ない計算資源でパッチバイパッチをシームレスに訓練し、推論する方法を示す。
論文 参考訳(メタデータ) (2021-04-08T17:59:30Z) - Causal Contextual Prediction for Learned Image Compression [36.08393281509613]
本稿では,逐次的復号化プロセスを利用して潜在空間における因果文脈のエントロピー予測を行うために,分離エントロピー符号化の概念を提案する。
チャネル間の潜伏を分離し、チャネル間の関係を利用して高度に情報的コンテキストを生成する因果コンテキストモデルを提案する。
また、未知点の正確な予測のためのグローバル参照ポイントを見つけることができる因果的大域的予測モデルを提案する。
論文 参考訳(メタデータ) (2020-11-19T08:15:10Z) - Learning Context-Based Non-local Entropy Modeling for Image Compression [140.64888994506313]
本稿では,文脈内でのグローバルな類似性を利用して,文脈モデリングのための非局所的操作を提案する。
エントロピーモデルはさらに、結合速度歪み最適化における速度損失として採用されている。
低歪みモデルのトレーニングに変換の幅が不可欠であることを考えると、最終的に変換のU-Netブロックを生成して、管理可能なメモリ消費と時間複雑性で幅を拡大する。
論文 参考訳(メタデータ) (2020-05-10T13:28:18Z) - Learning End-to-End Lossy Image Compression: A Benchmark [90.35363142246806]
まず,学習した画像の圧縮方法に関する総合的な文献調査を行う。
本稿では,最先端の学習画像圧縮手法のマイルストーンについて述べるとともに,既存の幅広い作品について概観し,その歴史的開発ルートについて考察する。
エントロピー推定と信号再構成のための粗大な超高次モデルを導入することにより、速度歪み性能の向上を実現する。
論文 参考訳(メタデータ) (2020-02-10T13:13:43Z) - Image Fine-grained Inpainting [89.17316318927621]
拡張畳み込みの密結合を利用してより大きく効果的な受容場を得る一段階モデルを提案する。
この効率的なジェネレータをよく訓練するために、頻繁に使用されるVGG特徴整合損失を除いて、新しい自己誘導回帰損失を設計する。
また、局所的・グローバルな分枝を持つ識別器を用いて、局所的・グローバルな内容の整合性を確保する。
論文 参考訳(メタデータ) (2020-02-07T03:45:25Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。