論文の概要: Toward Storage-Aware Learning with Compressed Data An Empirical Exploratory Study on JPEG
- arxiv url: http://arxiv.org/abs/2508.12833v1
- Date: Mon, 18 Aug 2025 11:17:59 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-08-19 14:49:11.260656
- Title: Toward Storage-Aware Learning with Compressed Data An Empirical Exploratory Study on JPEG
- Title(参考訳): 圧縮データを用いたストレージ・アウェア・ラーニングに向けて : JPEGに関する実証的研究
- Authors: Kichang Lee, Songkuk Kim, JaeYeon Park, JeongGil Ko,
- Abstract要約: 本稿では,データ量と圧縮による品質のトレードオフに焦点を当てる。
我々は,一様データドロップや一様圧縮などの単純戦略が最適であることを示す。
データサンプルは圧縮に対する様々な感度を示し、サンプルワイド適応圧縮戦略の実現可能性を支持する。
- 参考スコア(独自算出の注目度): 8.637180149533208
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: On-device machine learning is often constrained by limited storage, particularly in continuous data collection scenarios. This paper presents an empirical study on storage-aware learning, focusing on the trade-off between data quantity and quality via compression. We demonstrate that naive strategies, such as uniform data dropping or one-size-fits-all compression, are suboptimal. Our findings further reveal that data samples exhibit varying sensitivities to compression, supporting the feasibility of a sample-wise adaptive compression strategy. These insights provide a foundation for developing a new class of storage-aware learning systems. The primary contribution of this work is the systematic characterization of this under-explored challenge, offering valuable insights that advance the understanding of storage-aware learning.
- Abstract(参考訳): オンデバイス機械学習は、特に連続したデータ収集シナリオにおいて、限られたストレージによって制約されることが多い。
本稿では,データ量と圧縮による品質のトレードオフに着目した記憶学習に関する実証的研究を行う。
我々は,一様データドロップや一様圧縮などの単純戦略が最適であることを示す。
さらに,データサンプルの圧縮に対する感受性が変化していることが明らかとなり,サンプルワイド適応圧縮戦略の実現可能性が高まった。
これらの知見は、新しいストレージ対応学習システムを開発する基盤となる。
この研究の主な貢献は、この未調査の課題を体系的に特徴づけることであり、ストレージを意識した学習の理解を促進するための貴重な洞察を提供する。
関連論文リスト
- Compressive Meta-Learning [49.300635370079874]
圧縮学習(Compressive learning)は、ランダムで非線形な特徴を用いることで効率的な処理を可能にするフレームワークである。
圧縮学習手法の符号化段階と復号段階の両方をメタラーニングするフレームワークを提案する。
ニューラルネットワークベースの圧縮PCA、圧縮リッジ回帰、圧縮k平均、オートエンコーダなど、複数のアプリケーションについて検討する。
論文 参考訳(メタデータ) (2025-08-14T22:08:06Z) - Transferable Learned Image Compression-Resistant Adversarial Perturbations [66.46470251521947]
敵対的攻撃は容易に画像分類システムを破壊し、DNNベースの認識タスクの脆弱性を明らかにする。
我々は、学習した画像圧縮機を前処理モジュールとして利用する画像分類モデルをターゲットにした新しいパイプラインを提案する。
論文 参考訳(メタデータ) (2024-01-06T03:03:28Z) - Uncovering the Hidden Cost of Model Compression [43.62624133952414]
視覚プロンプティングは、コンピュータビジョンにおける伝達学習の重要な方法として登場した。
モデル圧縮は視覚的プロンプトベース転送の性能に有害である。
しかし、量子化によってモデルが圧縮されるとき、キャリブレーションに対する負の効果は存在しない。
論文 参考訳(メタデータ) (2023-08-29T01:47:49Z) - DC-BENCH: Dataset Condensation Benchmark [79.18718490863908]
この研究は、データセットの凝縮に関する最初の大規模標準ベンチマークを提供する。
それは、凝縮法の生成可能性と有効性を包括的に反映する一連の評価から成り立っている。
ベンチマークライブラリは、将来の研究とアプリケーションを容易にするためにオープンソース化されている。
論文 参考訳(メタデータ) (2022-07-20T03:54:05Z) - Memory Replay with Data Compression for Continual Learning [80.95444077825852]
古いトレーニングサンプルの記憶コストを低減するため,データ圧縮によるメモリリプレイを提案する。
我々はこれを、クラスインクリメンタル学習のいくつかのベンチマークと、自律運転のためのオブジェクト検出の現実的なシナリオにおいて、広範囲に検証する。
論文 参考訳(メタデータ) (2022-02-14T10:26:23Z) - Lossy Compression of Noisy Data for Private and Data-Efficient Learning [12.51337299300091]
プライバシ保証を提供すると同時に,ユーザデータのストレージコストを低減するためのフレームワークを提案する。
提案手法はノイズ注入と損失圧縮を含む。
付加雑音の分布と損失圧縮を適切に一致させると、圧縮例が収束することを示す。
論文 参考訳(メタデータ) (2022-02-07T00:15:03Z) - Preventing Catastrophic Forgetting and Distribution Mismatch in
Knowledge Distillation via Synthetic Data [5.064036314529226]
本稿では,データフリーなKDフレームワークを提案する。
実験により,KDを用いて得られた学生モデルの精度を,最先端の手法と比較して向上できることが実証された。
論文 参考訳(メタデータ) (2021-08-11T08:11:08Z) - Analyzing and Mitigating JPEG Compression Defects in Deep Learning [69.04777875711646]
本稿では,JPEG圧縮が共通タスクやデータセットに与える影響を統一的に検討する。
高圧縮の一般的なパフォーマンス指標には大きなペナルティがあることが示される。
論文 参考訳(メタデータ) (2020-11-17T20:32:57Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。