論文の概要: Compressing image encoders via latent distillation
- arxiv url: http://arxiv.org/abs/2601.05639v1
- Date: Fri, 09 Jan 2026 08:50:38 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-01-12 17:41:49.919786
- Title: Compressing image encoders via latent distillation
- Title(参考訳): 潜水蒸留による圧縮画像エンコーダ
- Authors: Caroline Mazini Rodrigues, Nicolas Keriven, Thomas Maugey,
- Abstract要約: 画像圧縮のためのディープラーニングモデルは、ハードウェア制約のあるアプリケーションにおいて、実用的な制限に直面していることが多い。
エンコーダのサイズを小さくすることで,これらのネットワークを部分的に圧縮する手法を提案する。
提案手法では, 簡易な知識蒸留手法を用いて, 従来のモデルの潜伏空間を少ないデータで近似し, 訓練時間を短縮し, 軽量エンコーダの軽量化を実現している。
- 参考スコア(独自算出の注目度): 14.979912631427334
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Deep learning models for image compression often face practical limitations in hardware-constrained applications. Although these models achieve high-quality reconstructions, they are typically complex, heavyweight, and require substantial training data and computational resources. We propose a methodology to partially compress these networks by reducing the size of their encoders. Our approach uses a simplified knowledge distillation strategy to approximate the latent space of the original models with less data and shorter training, yielding lightweight encoders from heavyweight ones. We evaluate the resulting lightweight encoders across two different architectures on the image compression task. Experiments show that our method preserves reconstruction quality and statistical fidelity better than training lightweight encoders with the original loss, making it practical for resource-limited environments.
- Abstract(参考訳): 画像圧縮のためのディープラーニングモデルは、ハードウェア制約のあるアプリケーションにおいて、実用的な制限に直面していることが多い。
これらのモデルは高品質な再構築を実現するが、典型的には複雑で重く、かなりの訓練データと計算資源を必要とする。
エンコーダのサイズを小さくすることで,これらのネットワークを部分的に圧縮する手法を提案する。
提案手法では, 簡易な知識蒸留手法を用いて, 従来のモデルの潜伏空間を少ないデータで近似し, 訓練時間を短縮し, 軽量エンコーダを重みから生成する。
画像圧縮タスクにおいて、2つの異なるアーキテクチャにまたがる軽量エンコーダの評価を行う。
実験により, 本手法は, 軽量エンコーダを元の損失で訓練するよりも, 復元品質と統計的忠実度を良好に保ち, 資源限定環境において実用的であることが示された。
関連論文リスト
- Ultra-Efficient Decoding for End-to-End Neural Compression and Reconstruction [3.2424997710743138]
ベクトル量子化を用いたオートエンコーダに低ランク表現を組み込んだ新しい圧縮再構成フレームワークを開発した。
画像の学習遅延表現に対して,一連の計算効率のよい低ランク演算を行うことで,高画質で効率的にデータを再構成できることを実証する。
論文 参考訳(メタデータ) (2025-10-01T19:42:59Z) - Efficient Learned Image Compression Through Knowledge Distillation [6.5170521662453185]
学習された画像圧縮は、機械学習と画像処理の交差点に位置する。
最近の研究は、ニューラルネットワークベースの圧縮モデルが従来のコーデックより一貫して優れていることを示唆している。
本研究では,知識蒸留を利用して画像圧縮に用いるニューラルネットワークの資源要求を削減することを目的とする。
論文 参考訳(メタデータ) (2025-09-12T15:59:55Z) - Multi-Scale Invertible Neural Network for Wide-Range Variable-Rate Learned Image Compression [90.59962443790593]
本稿では,制限を克服するために,可逆変換に基づく可変レート画像圧縮モデルを提案する。
具体的には、入力画像をマルチスケールの潜在表現にマッピングする、軽量なマルチスケール非可逆ニューラルネットワークを設計する。
実験結果から,提案手法は既存の可変レート法と比較して最先端性能を実現することが示された。
論文 参考訳(メタデータ) (2025-03-27T09:08:39Z) - Pathology Image Compression with Pre-trained Autoencoders [52.208181380986524]
デジタル病理学における全スライド画像は、記憶、伝達、計算効率の面で大きな課題をもたらす。
JPEGのような標準的な圧縮手法はファイルサイズを小さくするが、下流のタスクに不可欠な微細な表現型の詳細を保存できない。
本研究では,遅延拡散モデル用に設計されたオートエンコーダ(AE)を,病理画像の効率的な学習圧縮フレームワークとして再利用する。
論文 参考訳(メタデータ) (2025-03-14T17:01:17Z) - CALLIC: Content Adaptive Learning for Lossless Image Compression [64.47244912937204]
CALLICは、学習したロスレス画像圧縮のための新しい最先端(SOTA)を設定する。
本稿では,畳み込みゲーティング操作を利用したコンテンツ認識型自己回帰自己保持機構を提案する。
エンコーディング中、低ランク行列を用いて深度の畳み込みを含む事前学習層を分解し、レート誘導プログレッシブファインタニング(RPFT)による画像検査にインクリメンタルウェイトを適応させる。
推定エントロピーにより下位順にソートされたパッチを徐々に増加させたRPFTファインチューン,学習過程の最適化,適応時間の短縮を実現した。
論文 参考訳(メタデータ) (2024-12-23T10:41:18Z) - Lossless Compression with Latent Variable Models [4.289574109162585]
我々は「非対称数値系を持つビットバック」(bb-ans)と呼ぶ潜在変数モデルを用いる。
この方法は、エンコードおよびデコードステップをインターリーブし、データのバッチ圧縮時に最適なレートを達成する。
我々は,深層生成モデルを用いた圧縮の高速プロトタイピングのために開発したモジュール型ソフトウェアフレームワークである'craystack'について述べる。
論文 参考訳(メタデータ) (2021-04-21T14:03:05Z) - Modeling Lost Information in Lossy Image Compression [72.69327382643549]
ロスシー画像圧縮は、デジタル画像の最もよく使われる演算子の1つである。
Invertible Lossy Compression (ILC) と呼ばれる新しい非可逆的フレームワークを提案する。
論文 参考訳(メタデータ) (2020-06-22T04:04:56Z) - Quantization Guided JPEG Artifact Correction [69.04777875711646]
我々はJPEGファイル量子化行列を用いたアーティファクト修正のための新しいアーキテクチャを開発した。
これにより、特定の品質設定のためにトレーニングされたモデルに対して、単一のモデルで最先端のパフォーマンスを達成できます。
論文 参考訳(メタデータ) (2020-04-17T00:10:08Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。