論文の概要: Lost in Compression: the Impact of Lossy Image Compression on Variable
Size Object Detection within Infrared Imagery
- arxiv url: http://arxiv.org/abs/2205.08002v1
- Date: Mon, 16 May 2022 21:54:32 GMT
- ステータス: 処理完了
- システム内更新日: 2022-05-18 13:06:10.018866
- Title: Lost in Compression: the Impact of Lossy Image Compression on Variable
Size Object Detection within Infrared Imagery
- Title(参考訳): lost in compression: 赤外画像中の可変サイズ物体検出におけるロス画像圧縮の影響
- Authors: Neelanjan Bhowmik, Jack W. Barker, Yona Falinie A. Gaus, Toby P.
Breckon
- Abstract要約: ロスシー画像圧縮戦略は、データを縮小形式に符号化することで、データのより効率的な保存と送信を可能にする。
これは、より少ないストレージ環境において、より大きなデータセットによるトレーニングを可能にするために不可欠である。
本研究では,95,75,50,15,10,5の圧縮レベルを6つの離散的に増加させたJPEG圧縮法を赤外線(熱)画像に適用する。
- 参考スコア(独自算出の注目度): 11.135527192198092
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Lossy image compression strategies allow for more efficient storage and
transmission of data by encoding data to a reduced form. This is essential
enable training with larger datasets on less storage-equipped environments.
However, such compression can cause severe decline in performance of deep
Convolution Neural Network (CNN) architectures even when mild compression is
applied and the resulting compressed imagery is visually identical. In this
work, we apply the lossy JPEG compression method with six discrete levels of
increasing compression {95, 75, 50, 15, 10, 5} to infrared band (thermal)
imagery. Our study quantitatively evaluates the affect that increasing levels
of lossy compression has upon the performance of characteristically diverse
object detection architectures (Cascade-RCNN, FSAF and Deformable DETR) with
respect to varying sizes of objects present in the dataset. When training and
evaluating on uncompressed data as a baseline, we achieve maximal mean Average
Precision (mAP) of 0.823 with Cascade R-CNN across the FLIR dataset,
outperforming prior work. The impact of the lossy compression is more extreme
at higher compression levels (15, 10, 5) across all three CNN architectures.
However, re-training models on lossy compressed imagery notably ameliorated
performances for all three CNN models with an average increment of ~76% (at
higher compression level 5). Additionally, we demonstrate the relative
sensitivity of differing object areas {tiny, small, medium, large} with respect
to the compression level. We show that tiny and small objects are more
sensitive to compression than medium and large objects. Overall, Cascade R-CNN
attains the maximal mAP across most of the object area categories.
- Abstract(参考訳): ロスシー画像圧縮戦略は、データを縮小形式に符号化することで、データのより効率的な保存と送信を可能にする。
これは、ストレージ対応の少ない環境で、より大きなデータセットでトレーニングを可能にするために必須です。
しかし、このような圧縮は、弱い圧縮を適用して圧縮された画像が視覚的に同一である場合でも、深層畳み込みニューラルネットワーク(CNN)アーキテクチャの性能が著しく低下する可能性がある。
本研究では、赤外線(熱)画像に6つの離散レベルの圧縮値(95, 75, 50, 15, 10, 5})の損失JPEG圧縮法を適用する。
本研究は, 損失圧縮の増大が, 特徴的に多様な物体検出アーキテクチャ(Cascade-RCNN, FSAF, Deformable DETR)の性能に与える影響を, データセット内に存在する物体の大きさの変化に対して定量的に評価した。
非圧縮データをベースラインとしてトレーニングおよび評価する場合、flirデータセット全体でカスケードr-cnnを用いて0.823の最大平均精度(map)を達成する。
損失のある圧縮の影響は、3つのCNNアーキテクチャ全体にわたって、より高い圧縮レベル(15, 10, 5)においてより極端である。
しかし、失われた圧縮画像による再訓練モデルでは、cnnの3モデル全てで平均76%(より高い圧縮レベル5)のパフォーマンスが改善された。
さらに,圧縮レベルに関して,異なる対象領域 {tiny, small, medium, large} の相対感度を示す。
小型・小型の物体は中型・大型の物体よりも圧縮に敏感であることを示す。
全体として、カスケードR-CNNは、ほとんどの対象領域カテゴリで最大mAPを得る。
関連論文リスト
- Implicit Neural Image Field for Biological Microscopy Image Compression [37.0218688308699]
Inlicit Neural Representation (INR) に基づく適応圧縮ワークフローを提案する。
このアプローチは、任意の形状の画像を圧縮し、任意のピクセル単位の圧縮が可能な、アプリケーション固有の圧縮目的を許容する。
我々は,我々のワークフローが高精細圧縮比を達成しただけでなく,下流解析に不可欠な詳細な情報も保存できることを,広範囲にわたる顕微鏡画像で実証した。
論文 参考訳(メタデータ) (2024-05-29T11:51:33Z) - Deep learning based Image Compression for Microscopy Images: An
Empirical Study [3.915183869199319]
本研究では,古典的および深層学習に基づく画像圧縮法とその深層学習に基づく画像処理モデルへの影響について分析する。
このような所望の方法で画像を圧縮するには、複数の古典的損失画像圧縮技術と、複数のAIベースの圧縮モデルを比較する。
その結果、AIベースの圧縮技術は従来の圧縮技術よりも優れており、2Dケースでは下流のラベルなしタスクに最小限の影響を及ぼすことがわかった。
論文 参考訳(メタデータ) (2023-11-02T16:00:32Z) - Are Visual Recognition Models Robust to Image Compression? [23.280147529096908]
画像圧縮が視覚認知タスクに与える影響を解析する。
我々は、0.1ビットから2ビット/ピクセル(bpp)までの幅広い圧縮レベルについて検討する。
これら3つのタスクすべてにおいて,強い圧縮を使用する場合,認識能力に大きな影響があることが判明した。
論文 参考訳(メタデータ) (2023-04-10T11:30:11Z) - Learned Lossless Compression for JPEG via Frequency-Domain Prediction [50.20577108662153]
JPEG画像のロスレス圧縮を学習するための新しいフレームワークを提案する。
周波数領域での学習を可能にするために、DCT係数は暗黙の局所冗長性を利用するためにグループに分割される。
グループ化されたDCT係数のエントロピーモデリングを実現するために、重み付きブロックに基づいてオートエンコーダのようなアーキテクチャを設計する。
論文 参考訳(メタデータ) (2023-03-05T13:15:28Z) - Crowd Counting on Heavily Compressed Images with Curriculum Pre-Training [90.76576712433595]
ディープニューラルネットワークによって処理された画像に損失圧縮を適用することで、大幅な精度低下につながる可能性がある。
カリキュラム学習のパラダイムに着想を得て,圧縮画像の群集カウントのためのカリキュラム事前学習(CPT)と呼ばれる新しいトレーニング手法を提案する。
論文 参考訳(メタデータ) (2022-08-15T08:43:21Z) - Towards Compact CNNs via Collaborative Compression [166.86915086497433]
チャネルプルーニングとテンソル分解を結合してCNNモデルを圧縮する協調圧縮方式を提案する。
52.9%のFLOPを削減し、ResNet-50で48.4%のパラメータを削除しました。
論文 参考訳(メタデータ) (2021-05-24T12:07:38Z) - Learning Scalable $\ell_\infty$-constrained Near-lossless Image
Compression via Joint Lossy Image and Residual Compression [118.89112502350177]
本稿では,$ell_infty$-constrained near-lossless image compressionを学習するための新しいフレームワークを提案する。
元の残差の学習確率モデルを定量化し、量子化残差の確率モデルを導出する。
論文 参考訳(メタデータ) (2021-03-31T11:53:36Z) - Towards Robust Data Hiding Against (JPEG) Compression: A
Pseudo-Differentiable Deep Learning Approach [78.05383266222285]
これらの圧縮に対抗できるデータ隠蔽の目標を達成することは、依然としてオープンな課題である。
ディープラーニングはデータの隠蔽に大きな成功を収めていますが、JPEGの非差別化性は、損失のある圧縮に対する堅牢性を改善するための深いパイプラインのトレーニングを困難にしています。
本稿では,上記の制約をすべて一度に解決するための,単純かつ効果的なアプローチを提案する。
論文 参考訳(メタデータ) (2020-12-30T12:30:09Z) - Analyzing and Mitigating JPEG Compression Defects in Deep Learning [69.04777875711646]
本稿では,JPEG圧縮が共通タスクやデータセットに与える影響を統一的に検討する。
高圧縮の一般的なパフォーマンス指標には大きなペナルティがあることが示される。
論文 参考訳(メタデータ) (2020-11-17T20:32:57Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。