論文の概要: Distributed Learning and Inference with Compressed Images
- arxiv url: http://arxiv.org/abs/2004.10497v2
- Date: Fri, 5 Feb 2021 11:45:05 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-10 18:41:55.232451
- Title: Distributed Learning and Inference with Compressed Images
- Title(参考訳): 圧縮画像を用いた分散学習と推論
- Authors: Sudeep Katakol, Basem Elbarashy, Luis Herranz, Joost van de Weijer,
and Antonio M. Lopez
- Abstract要約: 本稿では,自律運転に対する視覚に基づく認識をパラダイムシナリオとして取り上げる。
生成逆ネットワーク(GAN)を用いた画像復元に基づくデータセット復元を提案する。
本手法は,特定の画像圧縮手法と下流タスクの両方に非依存である。
- 参考スコア(独自算出の注目度): 40.07509530656681
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Modern computer vision requires processing large amounts of data, both while
training the model and/or during inference, once the model is deployed.
Scenarios where images are captured and processed in physically separated
locations are increasingly common (e.g. autonomous vehicles, cloud computing).
In addition, many devices suffer from limited resources to store or transmit
data (e.g. storage space, channel capacity). In these scenarios, lossy image
compression plays a crucial role to effectively increase the number of images
collected under such constraints. However, lossy compression entails some
undesired degradation of the data that may harm the performance of the
downstream analysis task at hand, since important semantic information may be
lost in the process. Moreover, we may only have compressed images at training
time but are able to use original images at inference time, or vice versa, and
in such a case, the downstream model suffers from covariate shift. In this
paper, we analyze this phenomenon, with a special focus on vision-based
perception for autonomous driving as a paradigmatic scenario. We see that loss
of semantic information and covariate shift do indeed exist, resulting in a
drop in performance that depends on the compression rate. In order to address
the problem, we propose dataset restoration, based on image restoration with
generative adversarial networks (GANs). Our method is agnostic to both the
particular image compression method and the downstream task; and has the
advantage of not adding additional cost to the deployed models, which is
particularly important in resource-limited devices. The presented experiments
focus on semantic segmentation as a challenging use case, cover a broad range
of compression rates and diverse datasets, and show how our method is able to
significantly alleviate the negative effects of compression on the downstream
visual task.
- Abstract(参考訳): 現代のコンピュータビジョンでは、モデルがデプロイされると、モデルおよび/または推論中に、大量のデータを処理する必要がある。
物理的に分離された場所で画像をキャプチャして処理するシナリオは、ますます一般的になっている(例えば、自動運転車、クラウドコンピューティング)。
さらに、多くのデバイスはデータの保存や送信に制限のあるリソース(ストレージスペース、チャネル容量など)に悩まされている。
これらのシナリオでは、そのような制約の下で収集された画像の数を効果的に増やすために、画像圧縮が重要な役割を果たす。
しかし、その過程で重要な意味情報が失われる可能性があるため、損失のある圧縮は、ダウンストリーム分析タスクのパフォーマンスを損なう可能性のあるデータの不必要な劣化を伴う。
さらに, トレーニング時にのみ圧縮画像が得られた場合もあれば, 推論時に元の画像を使用できる場合もあれば, 逆の場合も, 下流モデルは共変量シフトに悩まされる。
本稿では,この現象をパラダイムシナリオとして,視覚に基づく自律運転知覚に着目して分析する。
意味情報の喪失と共変量シフトは確かに存在し、結果として圧縮速度に依存するパフォーマンスが低下する。
そこで本研究では,gans(generative adversarial networks)を用いた画像復元に基づくデータセット復元を提案する。
本手法は,特定の画像圧縮手法と下流タスクの両方に非依存であり,特にリソース制限されたデバイスにおいて,デプロイされたモデルに追加費用を課さないという利点がある。
提案した実験は, セマンティックセグメンテーションを困難なユースケースとして取り上げ, 幅広い圧縮速度と多様なデータセットをカバーし, 下流視覚課題における圧縮の負の効果を大幅に軽減できることを示す。
関連論文リスト
- Scaling Training Data with Lossy Image Compression [8.05574597775852]
コンピュータビジョンでは、画像は本質的にアナログであるが、常に有限ビットでデジタル形式で保存される。
サンプルサイズと画像あたりのビット数によるテストエラーの連成進化を記述したストレージスケーリング法則を提案する。
我々は,この法則が画像圧縮のスタイリングモデル内にあることを証明し,二つのコンピュータビジョンタスクで実証的に検証する。
論文 参考訳(メタデータ) (2024-07-25T11:19:55Z) - Deep learning based Image Compression for Microscopy Images: An
Empirical Study [3.915183869199319]
本研究では,古典的および深層学習に基づく画像圧縮法とその深層学習に基づく画像処理モデルへの影響について分析する。
このような所望の方法で画像を圧縮するには、複数の古典的損失画像圧縮技術と、複数のAIベースの圧縮モデルを比較する。
その結果、AIベースの圧縮技術は従来の圧縮技術よりも優れており、2Dケースでは下流のラベルなしタスクに最小限の影響を及ぼすことがわかった。
論文 参考訳(メタデータ) (2023-11-02T16:00:32Z) - Machine Perception-Driven Image Compression: A Layered Generative
Approach [32.23554195427311]
階層型生成画像圧縮モデルを提案する。
タスクに依存しない学習に基づく圧縮モデルを提案し、様々な圧縮されたドメインベースの分析タスクを効果的にサポートする。
圧縮比、再構成画像品質、下流知覚性能の最良のバランス点を得るために、共同最適化スケジュールを採用する。
論文 参考訳(メタデータ) (2023-04-14T02:12:38Z) - Are Visual Recognition Models Robust to Image Compression? [23.280147529096908]
画像圧縮が視覚認知タスクに与える影響を解析する。
我々は、0.1ビットから2ビット/ピクセル(bpp)までの幅広い圧縮レベルについて検討する。
これら3つのタスクすべてにおいて,強い圧縮を使用する場合,認識能力に大きな影響があることが判明した。
論文 参考訳(メタデータ) (2023-04-10T11:30:11Z) - Crowd Counting on Heavily Compressed Images with Curriculum Pre-Training [90.76576712433595]
ディープニューラルネットワークによって処理された画像に損失圧縮を適用することで、大幅な精度低下につながる可能性がある。
カリキュラム学習のパラダイムに着想を得て,圧縮画像の群集カウントのためのカリキュラム事前学習(CPT)と呼ばれる新しいトレーニング手法を提案する。
論文 参考訳(メタデータ) (2022-08-15T08:43:21Z) - Analysis of the Effect of Low-Overhead Lossy Image Compression on the
Performance of Visual Crowd Counting for Smart City Applications [78.55896581882595]
画像圧縮技術は画像の品質を低下させ、精度を低下させる。
本稿では,低オーバヘッド損失画像圧縮法の適用が視覚的群集カウントの精度に与える影響を解析する。
論文 参考訳(メタデータ) (2022-07-20T19:20:03Z) - Identity Preserving Loss for Learned Image Compression [0.0]
本研究は,高圧縮率を実現するために,ドメイン固有の特徴を学習するエンドツーエンド画像圧縮フレームワークを提案する。
本稿では,CRF-23 HEVC圧縮の38%と42%のビット・パー・ピクセル(BPP)値が得られる新しいID保存再構成(IPR)ロス関数を提案する。
CRF-23 HEVC圧縮の38%の低いBPP値を保ちながら、未確認の認識モデルを用いてLFWデータセットの at-par 認識性能を示す。
論文 参考訳(メタデータ) (2022-04-22T18:01:01Z) - Learning Scalable $\ell_\infty$-constrained Near-lossless Image
Compression via Joint Lossy Image and Residual Compression [118.89112502350177]
本稿では,$ell_infty$-constrained near-lossless image compressionを学習するための新しいフレームワークを提案する。
元の残差の学習確率モデルを定量化し、量子化残差の確率モデルを導出する。
論文 参考訳(メタデータ) (2021-03-31T11:53:36Z) - Analyzing and Mitigating JPEG Compression Defects in Deep Learning [69.04777875711646]
本稿では,JPEG圧縮が共通タスクやデータセットに与える影響を統一的に検討する。
高圧縮の一般的なパフォーマンス指標には大きなペナルティがあることが示される。
論文 参考訳(メタデータ) (2020-11-17T20:32:57Z) - Modeling Lost Information in Lossy Image Compression [72.69327382643549]
ロスシー画像圧縮は、デジタル画像の最もよく使われる演算子の1つである。
Invertible Lossy Compression (ILC) と呼ばれる新しい非可逆的フレームワークを提案する。
論文 参考訳(メタデータ) (2020-06-22T04:04:56Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。