論文の概要: COLI: A Hierarchical Efficient Compressor for Large Images
- arxiv url: http://arxiv.org/abs/2507.11443v1
- Date: Tue, 15 Jul 2025 16:07:07 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-07-16 19:46:03.183899
- Title: COLI: A Hierarchical Efficient Compressor for Large Images
- Title(参考訳): COLI: 大規模画像のための階層型効率的な圧縮機
- Authors: Haoran Wang, Hanyu Pei, Yang Lyu, Kai Zhang, Li Li, Feng-Lei Fan,
- Abstract要約: Inlicit Neural Representations (INR)は、空間座標から個々の画像のピクセル強度への連続的なマッピングを学習することで、有望な代替手段を提供する。
我々は、NeRV(Neural Representations for Videos)を利用した新しいフレームワークであるCOLI(Compressor for Large Images)を紹介する。
また,COLIは,最大4倍のNRVトレーニングをしながら,PSNRとSSIMの競合や優れた測定値を,ピクセル当たりのビット数(bpp)で連続的に達成することを示した。
- 参考スコア(独自算出の注目度): 18.697445453003983
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The escalating adoption of high-resolution, large-field-of-view imagery amplifies the need for efficient compression methodologies. Conventional techniques frequently fail to preserve critical image details, while data-driven approaches exhibit limited generalizability. Implicit Neural Representations (INRs) present a promising alternative by learning continuous mappings from spatial coordinates to pixel intensities for individual images, thereby storing network weights rather than raw pixels and avoiding the generalization problem. However, INR-based compression of large images faces challenges including slow compression speed and suboptimal compression ratios. To address these limitations, we introduce COLI (Compressor for Large Images), a novel framework leveraging Neural Representations for Videos (NeRV). First, recognizing that INR-based compression constitutes a training process, we accelerate its convergence through a pretraining-finetuning paradigm, mixed-precision training, and reformulation of the sequential loss into a parallelizable objective. Second, capitalizing on INRs' transformation of image storage constraints into weight storage, we implement Hyper-Compression, a novel post-training technique to substantially enhance compression ratios while maintaining minimal output distortion. Evaluations across two medical imaging datasets demonstrate that COLI consistently achieves competitive or superior PSNR and SSIM metrics at significantly reduced bits per pixel (bpp), while accelerating NeRV training by up to 4 times.
- Abstract(参考訳): 高解像度大視野画像のエスカレートは、効率的な圧縮手法の必要性を増幅する。
従来の手法では重要な画像の詳細を保存できないことが多いが、データ駆動アプローチは限定的な一般化性を示している。
Inlicit Neural Representations (INR) は、空間座標から個々の画像の画素強度への連続的なマッピングを学習し、生のピクセルではなくネットワーク重みを保存し、一般化問題を回避し、有望な代替手段を提供する。
しかし、INRに基づく大容量画像の圧縮は、圧縮速度の遅さや圧縮比の最適化といった課題に直面している。
これらの制約に対処するために,Neural Representations for Videos(NeRV)を利用した新しいフレームワークであるCOLI(Compressor for Large Images)を紹介する。
まず、INRに基づく圧縮がトレーニングプロセスを構成することを認識し、事前学習ファインタニングパラダイム、混合精度トレーニング、並列化可能な目的への逐次損失の修正を通じて、その収束を加速する。
第2に,INRによる画像記憶制約の重み記憶への変換に乗じて,最小出力歪みを維持しながら圧縮率を大幅に向上させる新しいポストトレーニング手法であるHyper-Compressionを実装した。
2つの医用画像データセットで評価したところ、COLIは、最大4倍のNRVトレーニングを加速しながら、1ピクセル当たりのビット(bpp)を著しく減少させ、競争力または優れたPSNRとSSIMのメトリクスを一貫して達成している。
関連論文リスト
- LVPNet: A Latent-variable-based Prediction-driven End-to-end Framework for Lossless Compression of Medical Images [26.135460421593343]
Autoregressive Initial Bitsはサブイメージの自動回帰と潜在変数モデリングを統合するフレームワークである。
LVPNet という医用画像圧縮手法を提案する。
論文 参考訳(メタデータ) (2025-06-22T10:45:35Z) - Multi-Scale Invertible Neural Network for Wide-Range Variable-Rate Learned Image Compression [90.59962443790593]
本稿では,制限を克服するために,可逆変換に基づく可変レート画像圧縮モデルを提案する。
具体的には、入力画像をマルチスケールの潜在表現にマッピングする、軽量なマルチスケール非可逆ニューラルネットワークを設計する。
実験結果から,提案手法は既存の可変レート法と比較して最先端性能を実現することが示された。
論文 参考訳(メタデータ) (2025-03-27T09:08:39Z) - CALLIC: Content Adaptive Learning for Lossless Image Compression [64.47244912937204]
CALLICは、学習したロスレス画像圧縮のための新しい最先端(SOTA)を設定する。
本稿では,畳み込みゲーティング操作を利用したコンテンツ認識型自己回帰自己保持機構を提案する。
エンコーディング中、低ランク行列を用いて深度の畳み込みを含む事前学習層を分解し、レート誘導プログレッシブファインタニング(RPFT)による画像検査にインクリメンタルウェイトを適応させる。
推定エントロピーにより下位順にソートされたパッチを徐々に増加させたRPFTファインチューン,学習過程の最適化,適応時間の短縮を実現した。
論文 参考訳(メタデータ) (2024-12-23T10:41:18Z) - UniCompress: Enhancing Multi-Data Medical Image Compression with Knowledge Distillation [59.3877309501938]
Inlicit Neural Representation (INR) ネットワークは、その柔軟な圧縮比のため、顕著な汎用性を示している。
周波数領域情報を含むコードブックをINRネットワークへの事前入力として導入する。
これにより、INRの表現力が向上し、異なる画像ブロックに対して特異な条件付けが提供される。
論文 参考訳(メタデータ) (2024-05-27T05:52:13Z) - Unifying Generation and Compression: Ultra-low bitrate Image Coding Via
Multi-stage Transformer [35.500720262253054]
本稿では,新しい画像生成圧縮(UIGC)パラダイムを導入し,生成と圧縮のプロセスを統合する。
UIGCフレームワークの重要な特徴は、トークン化にベクトル量子化(VQ)イメージモデルを採用することである。
実験では、既存のコーデックよりも知覚品質と人間の知覚において、提案されたUIGCフレームワークが優れていることを示した。
論文 参考訳(メタデータ) (2024-03-06T14:27:02Z) - Semantic Ensemble Loss and Latent Refinement for High-Fidelity Neural Image Compression [58.618625678054826]
本研究は、最適な視覚的忠実度のために設計された強化されたニューラル圧縮手法を提案する。
我々は,洗練されたセマンティック・アンサンブル・ロス,シャルボニエ・ロス,知覚的損失,スタイル・ロス,非バイナリ・ディバイザ・ロスを組み込んだモデルを構築した。
実験により,本手法は神経画像圧縮の統計的忠実度を著しく向上させることが示された。
論文 参考訳(メタデータ) (2024-01-25T08:11:27Z) - Transferable Learned Image Compression-Resistant Adversarial Perturbations [66.46470251521947]
敵対的攻撃は容易に画像分類システムを破壊し、DNNベースの認識タスクの脆弱性を明らかにする。
我々は、学習した画像圧縮機を前処理モジュールとして利用する画像分類モデルをターゲットにした新しいパイプラインを提案する。
論文 参考訳(メタデータ) (2024-01-06T03:03:28Z) - Extreme Image Compression using Fine-tuned VQGANs [43.43014096929809]
本稿ではベクトル量子化(VQ)に基づく生成モデルを画像圧縮領域に導入する。
VQGANモデルによって学習されたコードブックは、強い表現能力をもたらす。
提案したフレームワークは、知覚的品質指向のメトリクスで最先端のコーデックより優れている。
論文 参考訳(メタデータ) (2023-07-17T06:14:19Z) - Modeling Image Quantization Tradeoffs for Optimal Compression [0.0]
ロスシー圧縮アルゴリズムは、圧縮率を上げるために高周波データを定量化することでトレードオフを狙う。
本稿では,Deep Learningとminimax損失関数を用いた量子化テーブルの最適化手法を提案する。
論文 参考訳(メタデータ) (2021-12-14T07:35:22Z) - Implicit Neural Representations for Image Compression [103.78615661013623]
Inlicit Neural Representations (INRs) は、様々なデータ型の新規かつ効果的な表現として注目されている。
量子化、量子化を考慮した再学習、エントロピー符号化を含むINRに基づく最初の包括的圧縮パイプラインを提案する。
我々は、INRによるソース圧縮に対する我々のアプローチが、同様の以前の作業よりも大幅に優れていることに気付きました。
論文 参考訳(メタデータ) (2021-12-08T13:02:53Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。