論文の概要: Probing Image Compression For Class-Incremental Learning
- arxiv url: http://arxiv.org/abs/2403.06288v1
- Date: Sun, 10 Mar 2024 18:58:14 GMT
- ステータス: 処理完了
- システム内更新日: 2024-03-12 20:59:07.118793
- Title: Probing Image Compression For Class-Incremental Learning
- Title(参考訳): 授業増分学習のための画像圧縮の提案
- Authors: Justin Yang, Zhihao Duan, Andrew Peng, Yuning Huang, Jiangpeng He,
Fengqing Zhu
- Abstract要約: 連続機械学習(ML)システムは、前もって学習したデータのパフォーマンスを維持するために、メモリ制限内に代表サンプル(例題としても知られる)を格納することに依存する。
本稿では,バッファの容量を増大させる戦略として画像圧縮を利用する方法を検討する。
本稿では,事前処理データ圧縮ステップと効率的な圧縮率/アルゴリズム選択方法を含む連続MLのための画像圧縮を組み込む新しいフレームワークを提案する。
- 参考スコア(独自算出の注目度): 8.711266563753846
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Image compression emerges as a pivotal tool in the efficient handling and
transmission of digital images. Its ability to substantially reduce file size
not only facilitates enhanced data storage capacity but also potentially brings
advantages to the development of continual machine learning (ML) systems, which
learn new knowledge incrementally from sequential data. Continual ML systems
often rely on storing representative samples, also known as exemplars, within a
limited memory constraint to maintain the performance on previously learned
data. These methods are known as memory replay-based algorithms and have proven
effective at mitigating the detrimental effects of catastrophic forgetting.
Nonetheless, the limited memory buffer size often falls short of adequately
representing the entire data distribution. In this paper, we explore the use of
image compression as a strategy to enhance the buffer's capacity, thereby
increasing exemplar diversity. However, directly using compressed exemplars
introduces domain shift during continual ML, marked by a discrepancy between
compressed training data and uncompressed testing data. Additionally, it is
essential to determine the appropriate compression algorithm and select the
most effective rate for continual ML systems to balance the trade-off between
exemplar quality and quantity. To this end, we introduce a new framework to
incorporate image compression for continual ML including a pre-processing data
compression step and an efficient compression rate/algorithm selection method.
We conduct extensive experiments on CIFAR-100 and ImageNet datasets and show
that our method significantly improves image classification accuracy in
continual ML settings.
- Abstract(参考訳): 画像圧縮は、デジタル画像の効率的なハンドリングと伝送において重要なツールとして現れる。
ファイルサイズを大幅に削減する能力は、データストレージ容量の強化だけでなく、シーケンシャルデータから新たな知識をインクリメンタルに学習するcontinual machine learning (ml)システムの開発にもメリットをもたらす可能性がある。
連続mlシステムは、通常、exemplarsとして知られる代表的なサンプルを限られたメモリ制約内に格納することで、事前に学習したデータのパフォーマンスを維持する。
これらの手法はメモリリプレイに基づくアルゴリズムとして知られ、破滅的な忘れることの有害な効果を軽減できることが証明されている。
それでも、制限されたメモリバッファサイズは、データ分布全体の適切な表現に不足することが多い。
本稿では,バッファのキャパシティ向上のための戦略として,画像圧縮の利用について検討する。
しかし、圧縮された例を直接使用すると、圧縮されたトレーニングデータと圧縮されていないテストデータとの相違が特徴の連続的なML中にドメインシフトが発生する。
さらに、適切な圧縮アルゴリズムを決定し、連続mlシステムにおいて最も効果的なレートを選択して、模範的品質と量とのトレードオフのバランスをとることが不可欠である。
そこで本稿では,事前処理データ圧縮ステップと効率的な圧縮率/アルゴリズム選択方法を含む連続MLの画像圧縮を取り入れた新しいフレームワークを提案する。
CIFAR-100およびImageNetデータセットの広範な実験を行い、連続ML設定における画像分類精度を大幅に向上することを示す。
関連論文リスト
- Scaling Training Data with Lossy Image Compression [8.05574597775852]
コンピュータビジョンでは、画像は本質的にアナログであるが、常に有限ビットでデジタル形式で保存される。
サンプルサイズと画像あたりのビット数によるテストエラーの連成進化を記述したストレージスケーリング法則を提案する。
我々は,この法則が画像圧縮のスタイリングモデル内にあることを証明し,二つのコンピュータビジョンタスクで実証的に検証する。
論文 参考訳(メタデータ) (2024-07-25T11:19:55Z) - Learned Image Compression for HE-stained Histopathological Images via Stain Deconvolution [33.69980388844034]
本稿では,一般的なJPEGアルゴリズムがさらなる圧縮に適していないことを示す。
Stain Quantized Latent Compression, a novel DL based histopathology data compression approach。
提案手法はJPEGのような従来の手法と比較して,下流タスクの分類において優れた性能を示すことを示す。
論文 参考訳(メタデータ) (2024-06-18T13:47:17Z) - Deep learning based Image Compression for Microscopy Images: An
Empirical Study [3.915183869199319]
本研究では,古典的および深層学習に基づく画像圧縮法とその深層学習に基づく画像処理モデルへの影響について分析する。
このような所望の方法で画像を圧縮するには、複数の古典的損失画像圧縮技術と、複数のAIベースの圧縮モデルを比較する。
その結果、AIベースの圧縮技術は従来の圧縮技術よりも優れており、2Dケースでは下流のラベルなしタスクに最小限の影響を及ぼすことがわかった。
論文 参考訳(メタデータ) (2023-11-02T16:00:32Z) - Extreme Image Compression using Fine-tuned VQGANs [43.43014096929809]
本稿ではベクトル量子化(VQ)に基づく生成モデルを画像圧縮領域に導入する。
VQGANモデルによって学習されたコードブックは、強い表現能力をもたらす。
提案したフレームワークは、知覚的品質指向のメトリクスで最先端のコーデックより優れている。
論文 参考訳(メタデータ) (2023-07-17T06:14:19Z) - A Unified Image Preprocessing Framework For Image Compression [5.813935823171752]
そこで我々は,既存のコーデックの性能向上を図るために,Kuchenと呼ばれる統合された画像圧縮前処理フレームワークを提案する。
このフレームワークは、ハイブリッドデータラベリングシステムと、パーソナライズされた前処理をシミュレートする学習ベースのバックボーンで構成されている。
その結果,我々の統合前処理フレームワークによって最適化された現代のコーデックは,常に最先端圧縮の効率を向上することを示した。
論文 参考訳(メタデータ) (2022-08-15T10:41:00Z) - Crowd Counting on Heavily Compressed Images with Curriculum Pre-Training [90.76576712433595]
ディープニューラルネットワークによって処理された画像に損失圧縮を適用することで、大幅な精度低下につながる可能性がある。
カリキュラム学習のパラダイムに着想を得て,圧縮画像の群集カウントのためのカリキュラム事前学習(CPT)と呼ばれる新しいトレーニング手法を提案する。
論文 参考訳(メタデータ) (2022-08-15T08:43:21Z) - Memory Replay with Data Compression for Continual Learning [80.95444077825852]
古いトレーニングサンプルの記憶コストを低減するため,データ圧縮によるメモリリプレイを提案する。
我々はこれを、クラスインクリメンタル学習のいくつかのベンチマークと、自律運転のためのオブジェクト検出の現実的なシナリオにおいて、広範囲に検証する。
論文 参考訳(メタデータ) (2022-02-14T10:26:23Z) - Implicit Neural Representations for Image Compression [103.78615661013623]
Inlicit Neural Representations (INRs) は、様々なデータ型の新規かつ効果的な表現として注目されている。
量子化、量子化を考慮した再学習、エントロピー符号化を含むINRに基づく最初の包括的圧縮パイプラインを提案する。
我々は、INRによるソース圧縮に対する我々のアプローチが、同様の以前の作業よりも大幅に優れていることに気付きました。
論文 参考訳(メタデータ) (2021-12-08T13:02:53Z) - Analyzing and Mitigating JPEG Compression Defects in Deep Learning [69.04777875711646]
本稿では,JPEG圧縮が共通タスクやデータセットに与える影響を統一的に検討する。
高圧縮の一般的なパフォーマンス指標には大きなペナルティがあることが示される。
論文 参考訳(メタデータ) (2020-11-17T20:32:57Z) - Modeling Lost Information in Lossy Image Compression [72.69327382643549]
ロスシー画像圧縮は、デジタル画像の最もよく使われる演算子の1つである。
Invertible Lossy Compression (ILC) と呼ばれる新しい非可逆的フレームワークを提案する。
論文 参考訳(メタデータ) (2020-06-22T04:04:56Z) - Discernible Image Compression [124.08063151879173]
本稿では、外観と知覚の整合性の両方を追求し、圧縮画像を作成することを目的とする。
エンコーダ・デコーダ・フレームワークに基づいて,事前学習したCNNを用いて,オリジナル画像と圧縮画像の特徴を抽出する。
ベンチマーク実験により,提案手法を用いて圧縮した画像は,その後の視覚認識・検出モデルでもよく認識できることが示された。
論文 参考訳(メタデータ) (2020-02-17T07:35:08Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。