論文の概要: End-to-End Learned Block-Based Image Compression with Block-Level Masked
Convolutions and Asymptotic Closed Loop Training
- arxiv url: http://arxiv.org/abs/2203.11686v1
- Date: Tue, 22 Mar 2022 13:01:59 GMT
- ステータス: 処理完了
- システム内更新日: 2022-03-23 20:11:43.705617
- Title: End-to-End Learned Block-Based Image Compression with Block-Level Masked
Convolutions and Asymptotic Closed Loop Training
- Title(参考訳): ブロックレベルマスク付き畳み込みと漸近的閉ループトレーニングによる終端学習ブロックベース画像圧縮
- Authors: Fatih Kamisli
- Abstract要約: 本稿では,明示的内部予測ニューラルネットワークと明示的遮断ニューラルネットワークを併用しない,学習されたブロックベース画像圧縮手法を提案する。
実験結果から, 競合画像圧縮性能が示唆された。
- 参考スコア(独自算出の注目度): 2.741266294612776
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Learned image compression research has achieved state-of-the-art compression
performance with auto-encoder based neural network architectures, where the
image is mapped via convolutional neural networks (CNN) into a latent
representation that is quantized and processed again with CNN to obtain the
reconstructed image. CNN operate on entire input images. On the other hand,
traditional state-of-the-art image and video compression methods process images
with a block-by-block processing approach for various reasons. Very recently,
work on learned image compression with block based approaches have also
appeared, which use the auto-encoder architecture on large blocks of the input
image and introduce additional neural networks that perform intra/spatial
prediction and deblocking/post-processing functions. This paper explores an
alternative learned block-based image compression approach in which neither an
explicit intra prediction neural network nor an explicit deblocking neural
network is used. A single auto-encoder neural network with block-level masked
convolutions is used and the block size is much smaller (8x8). By using
block-level masked convolutions, each block is processed using reconstructed
neighboring left and upper blocks both at the encoder and decoder. Hence, the
mutual information between adjacent blocks is exploited during compression and
each block is reconstructed using neighboring blocks, resolving the need for
explicit intra prediction and deblocking neural networks. Since the explored
system is a closed loop system, a special optimization procedure, the
asymptotic closed loop design, is used with standard stochastic gradient
descent based training. The experimental results indicate competitive image
compression performance.
- Abstract(参考訳): 学習された画像圧縮研究は、オートエンコーダベースのニューラルネットワークアーキテクチャを用いて最先端の圧縮性能を達成し、画像は畳み込みニューラルネットワーク(cnn)を介して潜在表現にマッピングされる。
CNNは入力画像全体で動作する。
一方,従来の最先端画像圧縮手法と映像圧縮方式は,様々な理由から,ブロック単位の処理アプローチで画像を処理する。
入力画像の大きなブロックにオートエンコーダアーキテクチャを使用し、空間内/空間内予測とデブロック/ポスト処理機能を実行する追加のニューラルネットワークを導入している。
本稿では,明示的内部予測ニューラルネットワークと明示的遮断ニューラルネットワークを併用しない,学習されたブロックベース画像圧縮手法を提案する。
ブロックレベルのマスク畳み込みを持つ単一オートエンコーダニューラルネットワークを使用し、ブロックサイズはより小さく(8x8)。
ブロックレベルのマスク畳み込みを用いることで、エンコーダとデコーダの両方で、隣接する左ブロックと上ブロックを再構成して処理する。
これにより、隣り合うブロック間の相互情報を圧縮中に利用し、各ブロックを隣のブロックで再構築することで、明示的な内部予測とデブロッキングニューラルネットワークの必要性を解消する。
探索システムは閉ループシステムであるため、漸近的閉ループ設計という特別な最適化手順は、標準確率勾配降下に基づくトレーニングで使用される。
実験結果から, 競合画像圧縮性能が示唆された。
関連論文リスト
- A Deep Learning-based Compression and Classification Technique for Whole
Slide Histopathology Images [0.31498833540989407]
我々は、ニューラルネットワークのアンサンブルを構築し、圧縮オートエンコーダを教師付き方式で、入力されたヒストロジー画像のより密度が高くより意味のある表現を維持することができる。
転送学習に基づく分類器を用いて圧縮画像を検証し、有望な精度と分類性能を示すことを示す。
論文 参考訳(メタデータ) (2023-05-11T22:20:05Z) - Convolutional Neural Network (CNN) to reduce construction loss in JPEG
compression caused by Discrete Fourier Transform (DFT) [0.0]
畳み込みニューラルネットワーク(CNN)は他の多くのディープニューラルネットワークよりも注目されている。
本研究では,オートエンコーダを用いた効率的な画像圧縮手法を提案する。
論文 参考訳(メタデータ) (2022-08-26T12:46:16Z) - The Devil Is in the Details: Window-based Attention for Image
Compression [58.1577742463617]
既存の学習画像圧縮モデルは畳み込みニューラルネットワーク(CNN)に基づいている。
本稿では,複数種類の注意機構が局所特徴学習に与える影響について検討し,より単純で効果的なウィンドウベースの局所的注意ブロックを提案する。
提案されたウィンドウベースのアテンションは非常に柔軟で、CNNとTransformerモデルを強化するためのプラグイン・アンド・プレイコンポーネントとして機能する可能性がある。
論文 参考訳(メタデータ) (2022-03-16T07:55:49Z) - COIN++: Data Agnostic Neural Compression [55.27113889737545]
COIN++は、幅広いデータモダリティをシームレスに扱うニューラルネットワーク圧縮フレームワークである。
様々なデータモダリティを圧縮することで,本手法の有効性を示す。
論文 参考訳(メタデータ) (2022-01-30T20:12:04Z) - Implicit Neural Video Compression [17.873088127087605]
暗黙的なニューラル表現で全解像度映像列を圧縮する手法を提案する。
各フレームは、座標位置をピクセル値にマッピングするニューラルネットワークとして表現される。
我々は、異なる暗黙ネットワークを用いて座標入力を変調し、フレーム間の効率的な動き補償を可能にする。
論文 参考訳(メタデータ) (2021-12-21T15:59:00Z) - Small Lesion Segmentation in Brain MRIs with Subpixel Embedding [105.1223735549524]
ヒト脳のMRIスキャンを虚血性脳梗塞と正常組織に分割する方法を提案する。
本稿では,空間展開埋め込みネットワークによって予測を導出する標準エンコーダデコーダの形式でニューラルネットワークアーキテクチャを提案する。
論文 参考訳(メタデータ) (2021-09-18T00:21:17Z) - Image Compression with Recurrent Neural Network and Generalized Divisive
Normalization [3.0204520109309843]
深層学習は研究コミュニティから大きな注目を集め、将来有望な画像再構成結果を生み出している。
近年の手法は、ネットワークの複雑さを大幅に増大させる、より深い複雑なネットワークの開発に焦点を当てている。
本稿では、畳み込み層を用いた解析とブロック合成と、可変レートエンコーダとデコーダ側における一般化分割正規化(GDN)の2つの有効な新しいブロックを開発する。
論文 参考訳(メタデータ) (2021-09-05T05:31:55Z) - Learned Multi-Resolution Variable-Rate Image Compression with
Octave-based Residual Blocks [15.308823742699039]
一般化オクターブ畳み込み(GoConv)と一般化オクターブ畳み込み(GoTConv)を用いた新しい可変レート画像圧縮フレームワークを提案する。
単一モデルが異なるビットレートで動作し、複数レートの画像特徴を学習できるようにするため、新しい目的関数が導入される。
実験結果から,H.265/HEVCベースのBPGや最先端の学習に基づく可変レート法などの標準コーデックよりも高い性能を示した。
論文 参考訳(メタデータ) (2020-12-31T06:26:56Z) - Unfolding Neural Networks for Compressive Multichannel Blind
Deconvolution [71.29848468762789]
圧縮性多チャネルブラインドデコンボリューション問題に対する学習構造付き展開型ニューラルネットワークを提案する。
この問題では、各チャネルの測定は共通のソース信号とスパースフィルタの畳み込みとして与えられる。
提案手法は,従来の圧縮型マルチチャネルブラインドデコンボリューション法よりも,スパースフィルタの精度と高速化の点で優れていることを示す。
論文 参考訳(メタデータ) (2020-10-22T02:34:33Z) - Neural Sparse Representation for Image Restoration [116.72107034624344]
スパース符号化に基づく画像復元モデルの堅牢性と効率に触発され,深部ネットワークにおけるニューロンの空間性について検討した。
本手法は,隠れたニューロンに対する空間的制約を構造的に強制する。
実験により、複数の画像復元タスクのためのディープニューラルネットワークではスパース表現が不可欠であることが示されている。
論文 参考訳(メタデータ) (2020-06-08T05:15:17Z) - Pyramid Attention Networks for Image Restoration [124.34970277136061]
自己相似性(Self-similarity)とは、画像復元アルゴリズムで広く使われる画像を指す。
近年の深層畳み込みニューラルネットワークによる画像復元手法は, 自己相似性を十分に活用していない。
画像復元のための新しいピラミッドアテンションモジュールを提案し,マルチスケール特徴ピラミッドから長距離特徴対応をキャプチャする。
論文 参考訳(メタデータ) (2020-04-28T21:12:36Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。