論文の概要: An Empirical Analysis of Recurrent Learning Algorithms In Neural Lossy
Image Compression Systems
- arxiv url: http://arxiv.org/abs/2201.11782v1
- Date: Thu, 27 Jan 2022 19:47:51 GMT
- ステータス: 処理完了
- システム内更新日: 2022-02-01 11:52:47.386678
- Title: An Empirical Analysis of Recurrent Learning Algorithms In Neural Lossy
Image Compression Systems
- Title(参考訳): ニューラルロスシー画像圧縮システムにおける反復学習アルゴリズムの実証解析
- Authors: Ankur Mali and Alexander Ororbia and Daniel Kifer and Lee Giles
- Abstract要約: 近年のディープラーニングの進歩により、JPEGとJPEG 2000を標準のKodakベンチマークで上回る画像圧縮アルゴリズムが実現している。
本稿では,最近の最先端ハイブリッドニューラル圧縮アルゴリズムの大規模比較を行う。
- 参考スコア(独自算出の注目度): 73.48927855855219
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Recent advances in deep learning have resulted in image compression
algorithms that outperform JPEG and JPEG 2000 on the standard Kodak benchmark.
However, they are slow to train (due to backprop-through-time) and, to the best
of our knowledge, have not been systematically evaluated on a large variety of
datasets. In this paper, we perform the first large-scale comparison of recent
state-of-the-art hybrid neural compression algorithms, while exploring the
effects of alternative training strategies (when applicable). The hybrid
recurrent neural decoder is a former state-of-the-art model (recently overtaken
by a Google model) that can be trained using backprop-through-time (BPTT) or
with alternative algorithms like sparse attentive backtracking (SAB), unbiased
online recurrent optimization (UORO), and real-time recurrent learning (RTRL).
We compare these training alternatives along with the Google models (GOOG and
E2E) on 6 benchmark datasets. Surprisingly, we found that the model trained
with SAB performs better (outperforming even BPTT), resulting in faster
convergence and a better peak signal-to-noise ratio.
- Abstract(参考訳): 近年のディープラーニングの進歩は、JPEGとJPEG 2000を標準のKodakベンチマークで上回る画像圧縮アルゴリズムを生み出している。
しかしながら、トレーニングは遅く(バックプロップタイムによって)、私たちの知る限りでは、多くのデータセットで体系的に評価されてはいません。
本稿では,近年の最先端のハイブリッドニューラル圧縮アルゴリズムを大規模に比較し,代替トレーニング戦略(適用可能な場合)の効果について検討する。
ハイブリッドリカレントニューラルデコーダは、バックプロップ・スルータイム(BPTT)またはスパースアテンティブ・バックトラック(SAB)、アンバイアスドオンラインリカレント最適化(UORO)、リアルタイムリカレント学習(RTRL)などの代替アルゴリズムを用いてトレーニングできる、かつての最先端モデル(最近Googleモデルによって取り上げられている)である。
これらのトレーニング代替案と、Googleモデル(GOOGとE2E)を6つのベンチマークデータセットと比較する。
驚くべきことに、SABで訓練したモデルは(BPTTでも性能が良く、より高速な収束とピーク信号対雑音比が向上することがわかった。
関連論文リスト
- LeRF: Learning Resampling Function for Adaptive and Efficient Image Interpolation [64.34935748707673]
最近のディープニューラルネットワーク(DNN)は、学習データ前処理を導入することで、パフォーマンスを著しく向上させた。
本稿では,DNNが学習した構造的前提と局所的連続仮定の両方を活かした学習再サンプリング(Learning Resampling, LeRF)を提案する。
LeRFは空間的に異なる再サンプリング関数を入力画像ピクセルに割り当て、ニューラルネットワークを用いてこれらの再サンプリング関数の形状を予測する。
論文 参考訳(メタデータ) (2024-07-13T16:09:45Z) - Bit Rate Matching Algorithm Optimization in JPEG-AI Verification Model [45.64945099984195]
ニューラルネットワーク(NN)に基づく画像圧縮の研究は、古典的な圧縮フレームワークよりも優れた性能を示している。
JPEG-AI検証モデルの現在の状態は、ビットレートマッチング時に顕著なスローダウンを経験する。
提案手法は, 基本動作点における4倍加速とBDレートの1%以上の改善を提供する。
論文 参考訳(メタデータ) (2024-02-27T13:12:18Z) - Robust Learning with Progressive Data Expansion Against Spurious
Correlation [65.83104529677234]
本研究では,2層非線形畳み込みニューラルネットワークの学習過程について検討した。
分析の結果,不均衡なデータ群と学習容易なスプリアス特徴が学習過程におけるスプリアス特徴の優位性に繋がる可能性が示唆された。
本稿では,PDEと呼ばれる新たなトレーニングアルゴリズムを提案する。
論文 参考訳(メタデータ) (2023-06-08T05:44:06Z) - Loop Unrolled Shallow Equilibrium Regularizer (LUSER) -- A
Memory-Efficient Inverse Problem Solver [26.87738024952936]
逆問題では、潜在的に破損し、しばしば不適切な測定結果から、いくつかの基本的な関心のシグナルを再構築することを目的としている。
浅い平衡正規化器(L)を用いたLUアルゴリズムを提案する。
これらの暗黙のモデルは、より深い畳み込みネットワークと同じくらい表現力があるが、トレーニング中にはるかにメモリ効率が良い。
論文 参考訳(メタデータ) (2022-10-10T19:50:37Z) - Image reconstruction algorithms in radio interferometry: from
handcrafted to learned denoisers [7.1439425093981574]
本稿では,プラグイン・アンド・プレイ方式にヒントを得た,無線干渉計測のための新しい画像再構成アルゴリズムを提案する。
このアプローチは、ディープニューラルネットワーク(DNN)をノイズとしてトレーニングすることで、事前の画像モデルを学ぶことで構成される。
学習したデノイザをフォワード-バックワード最適化アルゴリズムにプラグインし、デノイザのステップをグラデーション-ディフレッシュなデータ-忠実度ステップで交互に繰り返す単純な反復構造を与える。
論文 参考訳(メタデータ) (2022-02-25T20:26:33Z) - A new Sparse Auto-encoder based Framework using Grey Wolf Optimizer for
Data Classification Problem [0.0]
列車のスパースオートエンコーダにグレーオオカミ最適化(GWO)を適用する。
モデルは、いくつかの人気のあるGene式データベースを使用することで検証される。
その結果、GWOを用いた学習モデルの性能は、一般的なメタヒューリスティックアルゴリズムで訓練された従来のモデルとモデルの両方で優れていた。
論文 参考訳(メタデータ) (2022-01-29T04:28:30Z) - Implicit Neural Representations for Image Compression [103.78615661013623]
Inlicit Neural Representations (INRs) は、様々なデータ型の新規かつ効果的な表現として注目されている。
量子化、量子化を考慮した再学習、エントロピー符号化を含むINRに基づく最初の包括的圧縮パイプラインを提案する。
我々は、INRによるソース圧縮に対する我々のアプローチが、同様の以前の作業よりも大幅に優れていることに気付きました。
論文 参考訳(メタデータ) (2021-12-08T13:02:53Z) - Phase Retrieval using Expectation Consistent Signal Recovery Algorithm
based on Hypernetwork [73.94896986868146]
位相検索は現代の計算イメージングシステムにおいて重要な要素である。
近年のディープラーニングの進歩は、堅牢で高速なPRの新たな可能性を開いた。
我々は、既存の制限を克服するために、深層展開のための新しいフレームワークを開発する。
論文 参考訳(メタデータ) (2021-01-12T08:36:23Z) - Neural Network-based Reconstruction in Compressed Sensing MRI Without
Fully-sampled Training Data [17.415937218905125]
CS-MRIは、アンダーサンプリングされたMR画像の再構成を約束している。
ニューラルネットワークで繰り返しをアンロールすることで、古典的なテクニックの反復性をモデル化するディープラーニングモデルが開発されている。
本稿では,古典的最適化方式で広く用いられている損失関数を応用して,非学習型再構成ネットワークを教師なしで訓練するための新しい戦略について検討する。
論文 参考訳(メタデータ) (2020-07-29T17:46:55Z) - BP-DIP: A Backprojection based Deep Image Prior [49.375539602228415]
画像復元手法として, (i)Deep Image Prior (DIP) と (ii) バックプロジェクション (BP) の2つの手法を提案する。
提案手法はBP-DIP(BP-DIP)と呼ばれ,高いPSNR値とより優れた推論実行時間を持つ通常のDIPよりも優れた性能を示す。
論文 参考訳(メタデータ) (2020-03-11T17:09:12Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。