論文の概要: Learning to Learn to Compress
- arxiv url: http://arxiv.org/abs/2007.16054v2
- Date: Sat, 1 May 2021 16:18:46 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-04 05:45:29.477341
- Title: Learning to Learn to Compress
- Title(参考訳): 圧縮を学ぶことを学ぶ
- Authors: Nannan Zou and Honglei Zhang and Francesco Cricri and Hamed R.
Tavakoli and Jani Lainema and Miska Hannuksela and Emre Aksu and Esa Rahtu
- Abstract要約: 画像圧縮のためのエンドツーエンドのメタ学習システムを提案する。
メタラーニングに基づく学習画像圧縮のための新しい訓練パラダイムを提案する。
- 参考スコア(独自算出の注目度): 25.23586503813838
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In this paper we present an end-to-end meta-learned system for image
compression. Traditional machine learning based approaches to image compression
train one or more neural network for generalization performance. However, at
inference time, the encoder or the latent tensor output by the encoder can be
optimized for each test image. This optimization can be regarded as a form of
adaptation or benevolent overfitting to the input content. In order to reduce
the gap between training and inference conditions, we propose a new training
paradigm for learned image compression, which is based on meta-learning. In a
first phase, the neural networks are trained normally. In a second phase, the
Model-Agnostic Meta-learning approach is adapted to the specific case of image
compression, where the inner-loop performs latent tensor overfitting, and the
outer loop updates both encoder and decoder neural networks based on the
overfitting performance. Furthermore, after meta-learning, we propose to
overfit and cluster the bias terms of the decoder on training image patches, so
that at inference time the optimal content-specific bias terms can be selected
at encoder-side. Finally, we propose a new probability model for lossless
compression, which combines concepts from both multi-scale and super-resolution
probability model approaches. We show the benefits of all our proposed ideas
via carefully designed experiments.
- Abstract(参考訳): 本稿では,画像圧縮のためのエンドツーエンドのメタ学習システムを提案する。
画像圧縮への従来の機械学習アプローチは、一般化パフォーマンスのために1つ以上のニューラルネットワークを訓練する。
しかし、推論時には、エンコーダが出力するエンコーダまたは潜時テンソルを各テスト画像に最適化することができる。
この最適化は、入力内容への適応や好意的なオーバーフィットの一形態と見なすことができる。
学習条件と推論条件のギャップを低減するため,メタ学習に基づく学習画像圧縮のための新たな訓練パラダイムを提案する。
第1フェーズでは、ニューラルネットワークは正常にトレーニングされる。
第2フェーズでは、モデル非依存メタ学習アプローチが画像圧縮の特定のケースに適応し、インナーループは潜時テンソルオーバーフィッティングを行い、外ループはオーバーフィッティング性能に基づいてエンコーダとデコーダのニューラルネットワークを更新する。
さらに,メタラーニング後,画像パッチの訓練においてデコーダのバイアス項を過度に活用し,クラスタ化することで,推定時に最適なコンテンツ固有のバイアス項をエンコーダ側で選択できるようにする。
最後に,マルチスケールとスーパーレゾリューションの両方の確率モデルによる概念を組み合わせた,ロスレス圧縮の新しい確率モデルを提案する。
慎重に設計された実験を通して提案したアイデアの利点を示す。
関連論文リスト
- Rate-Distortion-Cognition Controllable Versatile Neural Image Compression [47.72668401825835]
速度歪み認識制御可能な多目的画像圧縮法を提案する。
本手法は, 良好なICM性能とフレキシブルレート・ディストーション・コグニテーション制御を実現する。
論文 参考訳(メタデータ) (2024-07-16T13:17:51Z) - Reducing The Amortization Gap of Entropy Bottleneck In End-to-End Image
Compression [2.1485350418225244]
エンド・ツー・エンドのディープ・トレーニング可能なモデルは、ビデオや画像の従来の手作り圧縮技術の性能をほぼ上回っている。
本稿では,このアモート化ギャップを小さなコストで低減する,シンプルで効率的なインスタンスベースのパラメータ化手法を提案する。
論文 参考訳(メタデータ) (2022-09-02T11:43:45Z) - Preprocessing Enhanced Image Compression for Machine Vision [14.895698385236937]
本稿では,マシンビジョンタスクのための前処理による画像圧縮手法を提案する。
私たちのフレームワークは従来の非微分コーデックの上に構築されています。
実験の結果,提案手法は,約20%の節約により,ダウンストリームマシンビジョンタスクのコーディングと性能のトレードオフを向上することが示された。
論文 参考訳(メタデータ) (2022-06-12T03:36:38Z) - Estimating the Resize Parameter in End-to-end Learned Image Compression [50.20567320015102]
本稿では,最近の画像圧縮モデルの速度歪みトレードオフをさらに改善する検索自由化フレームワークについて述べる。
提案手法により,Bjontegaard-Deltaレート(BD-rate)を最大10%向上させることができる。
論文 参考訳(メタデータ) (2022-04-26T01:35:02Z) - Neural Data-Dependent Transform for Learned Image Compression [72.86505042102155]
ニューラルデータに依存した変換を構築し,各画像の符号化効率を最適化する連続オンラインモード決定機構を導入する。
実験の結果,提案したニューラルシンタクス設計と連続オンラインモード決定機構の有効性が示された。
論文 参考訳(メタデータ) (2022-03-09T14:56:48Z) - Post-Training Quantization for Cross-Platform Learned Image Compression [15.67527732099067]
学習した画像圧縮が従来の画像符号化技術より優れていることが確認されている。
考慮すべき最も重要な問題の1つは、非決定論的計算である。
本稿では,学習後量子化の導入によってこの問題を解決することを提案する。
論文 参考訳(メタデータ) (2022-02-15T15:41:12Z) - Neural JPEG: End-to-End Image Compression Leveraging a Standard JPEG
Encoder-Decoder [73.48927855855219]
本稿では,エンコーダとデコーダの両端に内在するニューラル表現を強化することで,符号化性能の向上を図るシステムを提案する。
実験により,提案手法はJPEGに対する速度歪み性能を,様々な品質指標で改善することを示した。
論文 参考訳(メタデータ) (2022-01-27T20:20:03Z) - Learning to Learn Parameterized Classification Networks for Scalable
Input Images [76.44375136492827]
畳み込みニューラルネットワーク(CNN)は、入力解像度の変化に関して予測可能な認識動作を持たない。
我々はメタラーナーを用いて、様々な入力スケールのメインネットワークの畳み込み重みを生成する。
さらに、異なる入力解像度に基づいて、モデル予測よりもフライでの知識蒸留を利用する。
論文 参考訳(メタデータ) (2020-07-13T04:27:25Z) - Learning End-to-End Lossy Image Compression: A Benchmark [90.35363142246806]
まず,学習した画像の圧縮方法に関する総合的な文献調査を行う。
本稿では,最先端の学習画像圧縮手法のマイルストーンについて述べるとともに,既存の幅広い作品について概観し,その歴史的開発ルートについて考察する。
エントロピー推定と信号再構成のための粗大な超高次モデルを導入することにより、速度歪み性能の向上を実現する。
論文 参考訳(メタデータ) (2020-02-10T13:13:43Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。