論文の概要: Crowd Counting on Heavily Compressed Images with Curriculum Pre-Training
- arxiv url: http://arxiv.org/abs/2208.07075v1
- Date: Mon, 15 Aug 2022 08:43:21 GMT
- ステータス: 処理完了
- システム内更新日: 2022-08-16 14:02:44.807000
- Title: Crowd Counting on Heavily Compressed Images with Curriculum Pre-Training
- Title(参考訳): カリキュラム事前学習による高圧縮画像の群衆カウント
- Authors: Arian Bakhtiarnia, Qi Zhang and Alexandros Iosifidis
- Abstract要約: ディープニューラルネットワークによって処理された画像に損失圧縮を適用することで、大幅な精度低下につながる可能性がある。
カリキュラム学習のパラダイムに着想を得て,圧縮画像の群集カウントのためのカリキュラム事前学習(CPT)と呼ばれる新しいトレーニング手法を提案する。
- 参考スコア(独自算出の注目度): 90.76576712433595
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: JPEG image compression algorithm is a widely used technique for image size
reduction in edge and cloud computing settings. However, applying such lossy
compression on images processed by deep neural networks can lead to significant
accuracy degradation. Inspired by the curriculum learning paradigm, we present
a novel training approach called curriculum pre-training (CPT) for crowd
counting on compressed images, which alleviates the drop in accuracy resulting
from lossy compression. We verify the effectiveness of our approach by
extensive experiments on three crowd counting datasets, two crowd counting DNN
models and various levels of compression. Our proposed training method is not
overly sensitive to hyper-parameters, and reduces the error, particularly for
heavily compressed images, by up to 19.70%.
- Abstract(参考訳): JPEG画像圧縮アルゴリズムはエッジおよびクラウドコンピューティング設定における画像サイズ削減に広く用いられている手法である。
しかし、ディープニューラルネットワークによって処理された画像にそのようなロスの少ない圧縮を適用すると、精度が著しく低下する可能性がある。
そこで我々は, カリキュラム学習パラダイムに触発されて, 圧縮画像に対する群衆カウントのためのカリキュラム事前学習 (cpt) と呼ばれる新しい学習手法を提案する。
提案手法の有効性を,3つの群集カウントデータセット,2つの群集カウントDNNモデル,および様々なレベルの圧縮実験により検証した。
提案手法はハイパーパラメータに過度に敏感ではなく,特に高圧縮画像の場合の誤差を最大19.70%削減する。
関連論文リスト
- Transferable Learned Image Compression-Resistant Adversarial Perturbations [66.46470251521947]
敵対的攻撃は容易に画像分類システムを破壊し、DNNベースの認識タスクの脆弱性を明らかにする。
我々は、学習した画像圧縮機を前処理モジュールとして利用する画像分類モデルをターゲットにした新しいパイプラインを提案する。
論文 参考訳(メタデータ) (2024-01-06T03:03:28Z) - Deep learning based Image Compression for Microscopy Images: An
Empirical Study [3.915183869199319]
本研究では,古典的および深層学習に基づく画像圧縮法とその深層学習に基づく画像処理モデルへの影響について分析する。
このような所望の方法で画像を圧縮するには、複数の古典的損失画像圧縮技術と、複数のAIベースの圧縮モデルを比較する。
その結果、AIベースの圧縮技術は従来の圧縮技術よりも優れており、2Dケースでは下流のラベルなしタスクに最小限の影響を及ぼすことがわかった。
論文 参考訳(メタデータ) (2023-11-02T16:00:32Z) - Convolutional Neural Network (CNN) to reduce construction loss in JPEG
compression caused by Discrete Fourier Transform (DFT) [0.0]
畳み込みニューラルネットワーク(CNN)は他の多くのディープニューラルネットワークよりも注目されている。
本研究では,オートエンコーダを用いた効率的な画像圧縮手法を提案する。
論文 参考訳(メタデータ) (2022-08-26T12:46:16Z) - Estimating the Resize Parameter in End-to-end Learned Image Compression [50.20567320015102]
本稿では,最近の画像圧縮モデルの速度歪みトレードオフをさらに改善する検索自由化フレームワークについて述べる。
提案手法により,Bjontegaard-Deltaレート(BD-rate)を最大10%向上させることができる。
論文 参考訳(メタデータ) (2022-04-26T01:35:02Z) - Modeling Image Quantization Tradeoffs for Optimal Compression [0.0]
ロスシー圧縮アルゴリズムは、圧縮率を上げるために高周波データを定量化することでトレードオフを狙う。
本稿では,Deep Learningとminimax損失関数を用いた量子化テーブルの最適化手法を提案する。
論文 参考訳(メタデータ) (2021-12-14T07:35:22Z) - Implicit Neural Representations for Image Compression [103.78615661013623]
Inlicit Neural Representations (INRs) は、様々なデータ型の新規かつ効果的な表現として注目されている。
量子化、量子化を考慮した再学習、エントロピー符号化を含むINRに基づく最初の包括的圧縮パイプラインを提案する。
我々は、INRによるソース圧縮に対する我々のアプローチが、同様の以前の作業よりも大幅に優れていることに気付きました。
論文 参考訳(メタデータ) (2021-12-08T13:02:53Z) - Learned Image Compression for Machine Perception [17.40776913809306]
人間の知覚と機械知覚の両方に適した圧縮フォーマットを生成するフレームワークを開発する。
コアビジョンタスクの圧縮と性能を同時に最適化する表現が学習可能であることを示す。
論文 参考訳(メタデータ) (2021-11-03T14:39:09Z) - Analyzing and Mitigating JPEG Compression Defects in Deep Learning [69.04777875711646]
本稿では,JPEG圧縮が共通タスクやデータセットに与える影響を統一的に検討する。
高圧縮の一般的なパフォーマンス指標には大きなペナルティがあることが示される。
論文 参考訳(メタデータ) (2020-11-17T20:32:57Z) - Discernible Image Compression [124.08063151879173]
本稿では、外観と知覚の整合性の両方を追求し、圧縮画像を作成することを目的とする。
エンコーダ・デコーダ・フレームワークに基づいて,事前学習したCNNを用いて,オリジナル画像と圧縮画像の特徴を抽出する。
ベンチマーク実験により,提案手法を用いて圧縮した画像は,その後の視覚認識・検出モデルでもよく認識できることが示された。
論文 参考訳(メタデータ) (2020-02-17T07:35:08Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。