論文の概要: Analyzing and Mitigating JPEG Compression Defects in Deep Learning
- arxiv url: http://arxiv.org/abs/2011.08932v2
- Date: Mon, 20 Sep 2021 12:28:30 GMT
- ステータス: 処理完了
- システム内更新日: 2022-09-24 16:10:34.852923
- Title: Analyzing and Mitigating JPEG Compression Defects in Deep Learning
- Title(参考訳): ディープラーニングにおけるJPEG圧縮欠陥の解析と緩和
- Authors: Max Ehrlich, Larry Davis, Ser-Nam Lim, Abhinav Shrivastava
- Abstract要約: 本稿では,JPEG圧縮が共通タスクやデータセットに与える影響を統一的に検討する。
高圧縮の一般的なパフォーマンス指標には大きなペナルティがあることが示される。
- 参考スコア(独自算出の注目度): 69.04777875711646
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: With the proliferation of deep learning methods, many computer vision
problems which were considered academic are now viable in the consumer setting.
One drawback of consumer applications is lossy compression, which is necessary
from an engineering standpoint to efficiently and cheaply store and transmit
user images. Despite this, there has been little study of the effect of
compression on deep neural networks and benchmark datasets are often losslessly
compressed or compressed at high quality. Here we present a unified study of
the effects of JPEG compression on a range of common tasks and datasets. We
show that there is a significant penalty on common performance metrics for high
compression. We test several methods for mitigating this penalty, including a
novel method based on artifact correction which requires no labels to train.
- Abstract(参考訳): ディープラーニング手法の普及に伴い、学術的と見なされた多くのコンピュータビジョン問題は、現在、消費者環境で実現されている。
ユーザイメージを効率よく、安価に保存し、送信するために、エンジニアリングの観点から必要となる、損失のある圧縮である。
それにもかかわらず、ディープニューラルネットワークに対する圧縮の影響についてはほとんど研究されておらず、ベンチマークデータセットは高品質でロスレス圧縮や圧縮が行われることが多い。
本稿では,JPEG圧縮が共通タスクやデータセットに与える影響を統一的に検討する。
高圧縮の一般的なパフォーマンス指標には大きなペナルティがあることが示される。
このペナルティを緩和するためのいくつかの方法を試行し、その中にはラベルを訓練する必要のないアーティファクト修正に基づく新しい方法も含まれている。
関連論文リスト
- Transferable Learned Image Compression-Resistant Adversarial Perturbations [66.46470251521947]
敵対的攻撃は容易に画像分類システムを破壊し、DNNベースの認識タスクの脆弱性を明らかにする。
我々は、学習した画像圧縮機を前処理モジュールとして利用する画像分類モデルをターゲットにした新しいパイプラインを提案する。
論文 参考訳(メタデータ) (2024-01-06T03:03:28Z) - Deep learning based Image Compression for Microscopy Images: An
Empirical Study [3.915183869199319]
本研究では,古典的および深層学習に基づく画像圧縮法とその深層学習に基づく画像処理モデルへの影響について分析する。
このような所望の方法で画像を圧縮するには、複数の古典的損失画像圧縮技術と、複数のAIベースの圧縮モデルを比較する。
その結果、AIベースの圧縮技術は従来の圧縮技術よりも優れており、2Dケースでは下流のラベルなしタスクに最小限の影響を及ぼすことがわかった。
論文 参考訳(メタデータ) (2023-11-02T16:00:32Z) - HFLIC: Human Friendly Perceptual Learned Image Compression with
Reinforced Transform [16.173583505483272]
現在の学習ベースの画像圧縮法は、人間に優しい圧縮を犠牲にし、長い復号時間を必要とすることが多い。
本稿では、既存の画像圧縮モデルのバックボーンネットワークとロス関数の強化を提案し、人間の知覚と効率の改善に焦点をあてる。
論文 参考訳(メタデータ) (2023-05-12T14:35:27Z) - Convolutional Neural Network (CNN) to reduce construction loss in JPEG
compression caused by Discrete Fourier Transform (DFT) [0.0]
畳み込みニューラルネットワーク(CNN)は他の多くのディープニューラルネットワークよりも注目されている。
本研究では,オートエンコーダを用いた効率的な画像圧縮手法を提案する。
論文 参考訳(メタデータ) (2022-08-26T12:46:16Z) - Crowd Counting on Heavily Compressed Images with Curriculum Pre-Training [90.76576712433595]
ディープニューラルネットワークによって処理された画像に損失圧縮を適用することで、大幅な精度低下につながる可能性がある。
カリキュラム学習のパラダイムに着想を得て,圧縮画像の群集カウントのためのカリキュラム事前学習(CPT)と呼ばれる新しいトレーニング手法を提案する。
論文 参考訳(メタデータ) (2022-08-15T08:43:21Z) - Estimating the Resize Parameter in End-to-end Learned Image Compression [50.20567320015102]
本稿では,最近の画像圧縮モデルの速度歪みトレードオフをさらに改善する検索自由化フレームワークについて述べる。
提案手法により,Bjontegaard-Deltaレート(BD-rate)を最大10%向上させることができる。
論文 参考訳(メタデータ) (2022-04-26T01:35:02Z) - Learned Image Compression for Machine Perception [17.40776913809306]
人間の知覚と機械知覚の両方に適した圧縮フォーマットを生成するフレームワークを開発する。
コアビジョンタスクの圧縮と性能を同時に最適化する表現が学習可能であることを示す。
論文 参考訳(メタデータ) (2021-11-03T14:39:09Z) - Towards Robust Data Hiding Against (JPEG) Compression: A
Pseudo-Differentiable Deep Learning Approach [78.05383266222285]
これらの圧縮に対抗できるデータ隠蔽の目標を達成することは、依然としてオープンな課題である。
ディープラーニングはデータの隠蔽に大きな成功を収めていますが、JPEGの非差別化性は、損失のある圧縮に対する堅牢性を改善するための深いパイプラインのトレーニングを困難にしています。
本稿では,上記の制約をすべて一度に解決するための,単純かつ効果的なアプローチを提案する。
論文 参考訳(メタデータ) (2020-12-30T12:30:09Z) - Quantization Guided JPEG Artifact Correction [69.04777875711646]
我々はJPEGファイル量子化行列を用いたアーティファクト修正のための新しいアーキテクチャを開発した。
これにより、特定の品質設定のためにトレーニングされたモデルに対して、単一のモデルで最先端のパフォーマンスを達成できます。
論文 参考訳(メタデータ) (2020-04-17T00:10:08Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。