論文の概要: Unicorn: Unified Neural Image Compression with One Number Reconstruction
- arxiv url: http://arxiv.org/abs/2412.08210v1
- Date: Wed, 11 Dec 2024 08:59:04 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-12-12 14:01:23.224081
- Title: Unicorn: Unified Neural Image Compression with One Number Reconstruction
- Title(参考訳): ユニコーン:1つの数字を再構成した統一ニューラルイメージ圧縮
- Authors: Qi Zheng, Haozhi Wang, Zihao Liu, Jiaming Liu, Peiye Liu, Zhijian Hao, Yanheng Lu, Dimin Niu, Jinjia Zhou, Minge Jing, Yibo Fan,
- Abstract要約: textbfUnified textbfNeural textbfImage textbfCompression with textbfOne textbfNnumber textbfReconstruction)。
イメージをインデックス画像対として概念化し、微妙なニューラルネットワークでペア固有の分布を学習することにより、Unicornは、1つのインデックス番号だけでランダムに生成されたノイズから視覚的に喜ぶイメージを再構成することができる。
- 参考スコア(独自算出の注目度): 25.79670851851377
- License:
- Abstract: Prevalent lossy image compression schemes can be divided into: 1) explicit image compression (EIC), including traditional standards and neural end-to-end algorithms; 2) implicit image compression (IIC) based on implicit neural representations (INR). The former is encountering impasses of either leveling off bitrate reduction at a cost of tremendous complexity while the latter suffers from excessive smoothing quality as well as lengthy decoder models. In this paper, we propose an innovative paradigm, which we dub \textbf{Unicorn} (\textbf{U}nified \textbf{N}eural \textbf{I}mage \textbf{C}ompression with \textbf{O}ne \textbf{N}number \textbf{R}econstruction). By conceptualizing the images as index-image pairs and learning the inherent distribution of pairs in a subtle neural network model, Unicorn can reconstruct a visually pleasing image from a randomly generated noise with only one index number. The neural model serves as the unified decoder of images while the noises and indexes corresponds to explicit representations. As a proof of concept, we propose an effective and efficient prototype of Unicorn based on latent diffusion models with tailored model designs. Quantitive and qualitative experimental results demonstrate that our prototype achieves significant bitrates reduction compared with EIC and IIC algorithms. More impressively, benefitting from the unified decoder, our compression ratio escalates as the quantity of images increases. We envision that more advanced model designs will endow Unicorn with greater potential in image compression. We will release our codes in \url{https://github.com/uniqzheng/Unicorn-Laduree}.
- Abstract(参考訳): 一般的な損失画像圧縮スキームは以下の2つに分けられる。
1) 従来の標準やニューラル・エンド・ツー・エンド・アルゴリズムを含む明示的画像圧縮(EIC)
2)暗黙的画像圧縮(IIC)は暗黙的神経表現(INR)に基づく。
前者はビットレートの低減を非常に複雑に犠牲にし、後者は過度なスムーズな品質と長いデコーダモデルに悩まされている。
本稿では, 革新的パラダイムを提案する。これは, \textbf{Unicorn} (\textbf{U}nified \textbf{N}eural \textbf{I}mage \textbf{C}ompression with \textbf{O}ne \textbf{N}number \textbf{R}econstructionである。
イメージをインデックス画像対として概念化し、微妙なニューラルネットワークモデルでペア固有の分布を学習することにより、Unicornは、1つのインデックス番号だけでランダムに生成されたノイズから視覚的に喜ぶイメージを再構成することができる。
ニューラルモデルは画像の統一デコーダとして機能し、ノイズとインデックスは明示的な表現に対応する。
提案手法は, モデル設計を最適化した潜在拡散モデルに基づく, 有効かつ効率的なUnicornのプロトタイプを提案する。
定量的および定性的な実験結果から,EIC や IIC のアルゴリズムと比較すると,試作機は大幅なビットレート削減を実現していることがわかった。
さらに印象的なことに、デコーダを統一することで、画像の量が増加するにつれて圧縮比が増大する。
より高度なモデル設計がUnicornのイメージ圧縮の可能性を拡大することを期待している。
ソースコードは \url{https://github.com/uniqzheng/Unicorn-Laduree} で公開します。
関連論文リスト
- Map-Assisted Remote-Sensing Image Compression at Extremely Low Bitrates [47.47031054057152]
生成モデルはRS画像を極低ビットレートストリームに圧縮するために研究されている。
これらの生成モデルは、非常に低ビットレート画像圧縮の極めて不適切な性質のため、視覚的に可視な画像の再構成に苦慮している。
本研究では,高現実性再構築を実現するために,自然画像に先行した事前学習拡散モデルを用いた画像圧縮フレームワークを提案する。
論文 参考訳(メタデータ) (2024-09-03T14:29:54Z) - FCNR: Fast Compressive Neural Representation of Visualization Images [6.648837287947374]
我々は,何万もの可視化画像に対する高速圧縮ニューラル表現であるFCNRを提案する。
FCNRはステレオ画像圧縮の最近の進歩に基づき、ステレオコンテキストモジュールとジョイントコンテキスト転送モジュールを同化して画像ペアを圧縮する。
論文 参考訳(メタデータ) (2024-07-23T10:34:02Z) - Lossy Image Compression with Conditional Diffusion Models [25.158390422252097]
本稿では,拡散生成モデルを用いた画像圧縮のエンドツーエンド最適化について概説する。
VAEベースのニューラル圧縮とは対照的に、(平均)デコーダは決定論的ニューラルネットワークであり、私たちのデコーダは条件付き拡散モデルである。
提案手法では,GANモデルよりもFIDスコアが強く,VAEモデルとの競合性能も高い。
論文 参考訳(メタデータ) (2022-09-14T21:53:27Z) - Lossy Image Compression with Quantized Hierarchical VAEs [33.173021636656465]
ResNet VAEはもともとデータ(画像)の分散モデリングのために設計された。
自然画像の損失圧縮における従来の手法より優れる、強力で効率的なモデルを提案する。
本モデルでは,画像を粗大に圧縮し,並列符号化と復号化をサポートする。
論文 参考訳(メタデータ) (2022-08-27T17:15:38Z) - Estimating the Resize Parameter in End-to-end Learned Image Compression [50.20567320015102]
本稿では,最近の画像圧縮モデルの速度歪みトレードオフをさらに改善する検索自由化フレームワークについて述べる。
提案手法により,Bjontegaard-Deltaレート(BD-rate)を最大10%向上させることができる。
論文 参考訳(メタデータ) (2022-04-26T01:35:02Z) - The Devil Is in the Details: Window-based Attention for Image
Compression [58.1577742463617]
既存の学習画像圧縮モデルは畳み込みニューラルネットワーク(CNN)に基づいている。
本稿では,複数種類の注意機構が局所特徴学習に与える影響について検討し,より単純で効果的なウィンドウベースの局所的注意ブロックを提案する。
提案されたウィンドウベースのアテンションは非常に柔軟で、CNNとTransformerモデルを強化するためのプラグイン・アンド・プレイコンポーネントとして機能する可能性がある。
論文 参考訳(メタデータ) (2022-03-16T07:55:49Z) - Reducing Redundancy in the Bottleneck Representation of the Autoencoders [98.78384185493624]
オートエンコーダは教師なしニューラルネットワークの一種であり、様々なタスクを解くのに使用できる。
本稿では,ボトルネック表現における特徴冗長性を明示的に罰する手法を提案する。
我々は,3つの異なるデータセットを用いた次元削減,MNISTデータセットを用いた画像圧縮,ファッションMNISTを用いた画像デノナイズという,さまざまなタスクにまたがってアプローチを検証した。
論文 参考訳(メタデータ) (2022-02-09T18:48:02Z) - Implicit Neural Representations for Image Compression [103.78615661013623]
Inlicit Neural Representations (INRs) は、様々なデータ型の新規かつ効果的な表現として注目されている。
量子化、量子化を考慮した再学習、エントロピー符号化を含むINRに基づく最初の包括的圧縮パイプラインを提案する。
我々は、INRによるソース圧縮に対する我々のアプローチが、同様の以前の作業よりも大幅に優れていることに気付きました。
論文 参考訳(メタデータ) (2021-12-08T13:02:53Z) - Pyramid Attention Networks for Image Restoration [124.34970277136061]
自己相似性(Self-similarity)とは、画像復元アルゴリズムで広く使われる画像を指す。
近年の深層畳み込みニューラルネットワークによる画像復元手法は, 自己相似性を十分に活用していない。
画像復元のための新しいピラミッドアテンションモジュールを提案し,マルチスケール特徴ピラミッドから長距離特徴対応をキャプチャする。
論文 参考訳(メタデータ) (2020-04-28T21:12:36Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。