論文の概要: Extreme compression of grayscale images
- arxiv url: http://arxiv.org/abs/2009.10115v1
- Date: Mon, 21 Sep 2020 18:19:23 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-16 05:16:57.652122
- Title: Extreme compression of grayscale images
- Title(参考訳): グレースケール画像の極端圧縮
- Authors: Franklin Mendivil and \"Orjan Stenflo
- Abstract要約: グレースケールのデジタルイメージと正の整数$n$を与えられた場合、圧縮比$n:1$で画像を保存するにはどうすればよいのか?
本稿では「$mathbfV$-variable image compression」を用いた$n>>50$の極端な場合における上記の問題に対処する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Given an grayscale digital image, and a positive integer $n$, how well can we
store the image at a compression ratio of $n:1$?
In this paper we address the above question in extreme cases when $n>>50$
using "$\mathbf{V}$-variable image compression".
- Abstract(参考訳): グレースケールのデジタル画像と正の整数$n$が与えられた場合、画像の圧縮比が$n:1$でどれだけ保存できるか?
本稿では、「$\mathbf{V}$-variable image compression」を用いた$n>>50$の極端な場合において、上記の問題に対処する。
関連論文リスト
- Sample Compression Scheme Reductions [17.389446817000945]
本稿では,多クラス分類,回帰,対向的頑健な学習環境におけるサンプル圧縮方式の新たな削減について述べる。
我々は、逆向きに頑健な学習のための同様の結果を確立し、また、頑健に学習できるが、境界サイズの圧縮スキームを持たない概念クラスの例を示す。
論文 参考訳(メタデータ) (2024-10-16T20:14:02Z) - Matrix Compression via Randomized Low Rank and Low Precision
Factorization [47.902465710511485]
現代の行列は数十億の要素を巻き込み、そのストレージと処理は計算資源とメモリ使用量の観点から非常に要求される。
この構造を利用して任意の行列 $mathbfA$ as $mathbfLmathbfR$ の低階分解を求めるアルゴリズムを提案する。
LlaMa-7$bの層を圧縮し,画像圧縮におけるアルゴリズムの有効性を実証的に実証した。
論文 参考訳(メタデータ) (2023-10-17T06:56:57Z) - Hyperspectral Image Compression Using Implicit Neural Representation [1.4721615285883425]
本稿では,暗黙的ニューラル表現を用いたハイパースペクトル画像圧縮法を提案する。
提案手法はJPEG,JPEG2000,PCA-DCTよりも低速で圧縮できることを示す。
論文 参考訳(メタデータ) (2023-02-08T15:27:00Z) - Universal Deep Image Compression via Content-Adaptive Optimization with
Adapters [43.291753358414255]
ディープイメージ圧縮は、自然画像上のJPEGのような従来のコーデックよりも優れている。
深部画像圧縮は学習ベースであり、領域外画像に対して圧縮性能が著しく低下する問題に直面する。
本研究の目的は,自然画像や線画,漫画などの任意の領域に属する画像を圧縮することである。
論文 参考訳(メタデータ) (2022-11-02T07:01:30Z) - Crowd Counting on Heavily Compressed Images with Curriculum Pre-Training [90.76576712433595]
ディープニューラルネットワークによって処理された画像に損失圧縮を適用することで、大幅な精度低下につながる可能性がある。
カリキュラム学習のパラダイムに着想を得て,圧縮画像の群集カウントのためのカリキュラム事前学習(CPT)と呼ばれる新しいトレーニング手法を提案する。
論文 参考訳(メタデータ) (2022-08-15T08:43:21Z) - PILC: Practical Image Lossless Compression with an End-to-end GPU
Oriented Neural Framework [88.18310777246735]
本稿では,1台のNVIDIA Tesla V100 GPUを用いて,圧縮と圧縮の両面で200MB/sを実現するエンドツーエンド画像圧縮フレームワークを提案する。
実験により、我々のフレームワークは、複数のデータセットで30%のマージンで、PNGよりも圧縮が優れていることが示された。
論文 参考訳(メタデータ) (2022-06-10T03:00:10Z) - Learning Scalable $\ell_\infty$-constrained Near-lossless Image
Compression via Joint Lossy Image and Residual Compression [118.89112502350177]
本稿では,$ell_infty$-constrained near-lossless image compressionを学習するための新しいフレームワークを提案する。
元の残差の学習確率モデルを定量化し、量子化残差の確率モデルを導出する。
論文 参考訳(メタデータ) (2021-03-31T11:53:36Z) - COIN: COmpression with Implicit Neural representations [64.02694714768691]
画像圧縮のための新しい簡易手法を提案する。
画像の各ピクセルのRGB値を格納する代わりに、画像に過度に適合したニューラルネットワークの重みを格納する。
論文 参考訳(メタデータ) (2021-03-03T10:58:39Z) - Exploiting context dependence for image compression with upsampling [0.8702432681310399]
アップサンプリングによる画像圧縮は、例えば、FUIFとJPEG XLの違いを符号化することで、画像解像度を順調に向上させる。
本稿では、この目的のために、シンプルな安価な汎用技術について論じる。
論文 参考訳(メタデータ) (2020-04-06T14:37:04Z) - Discernible Image Compression [124.08063151879173]
本稿では、外観と知覚の整合性の両方を追求し、圧縮画像を作成することを目的とする。
エンコーダ・デコーダ・フレームワークに基づいて,事前学習したCNNを用いて,オリジナル画像と圧縮画像の特徴を抽出する。
ベンチマーク実験により,提案手法を用いて圧縮した画像は,その後の視覚認識・検出モデルでもよく認識できることが示された。
論文 参考訳(メタデータ) (2020-02-17T07:35:08Z) - Ultra High Fidelity Image Compression with $\ell_\infty$-constrained
Encoding and Deep Decoding [24.812267280543693]
我々は,新しいCNNベースのソフト $ell_infty-constrained decoding法を開発した。
新しい方法は、$ell_inftymbox-SDNetと呼ばれる復元CNNを使用して圧縮欠陥を修復する。
この手法の独特な強みは、1ピクセルあたりの厳密な誤差を強制できることである。
論文 参考訳(メタデータ) (2020-02-10T00:33:39Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。