論文の概要: Learning Single-Image Super-Resolution in the JPEG Compressed Domain
- arxiv url: http://arxiv.org/abs/2512.04284v1
- Date: Wed, 03 Dec 2025 21:51:57 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-12-05 21:11:45.896876
- Title: Learning Single-Image Super-Resolution in the JPEG Compressed Domain
- Title(参考訳): JPEG圧縮領域における単一画像超解法学習
- Authors: Sruthi Srinivasan, Elham Shakibapour, Rajy Rawther, Mehdi Saeedi,
- Abstract要約: 本稿では,JPEGの完全復号化に伴う計算オーバーヘッドを低減し,JPEGの符号化機能を直接トレーニングするモデルを提案する。
本稿では、周波数領域におけるJPEG離散コサイン変換(DCT)係数を利用する軽量超解像パイプラインを提案する。
当社のパイプラインでは、データロードの2.6倍のスピードアップとトレーニングの2.5倍のスピードアップを実現しています。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Deep learning models have grown increasingly complex, with input data sizes scaling accordingly. Despite substantial advances in specialized deep learning hardware, data loading continues to be a major bottleneck that limits training and inference speed. To address this challenge, we propose training models directly on encoded JPEG features, reducing the computational overhead associated with full JPEG decoding and significantly improving data loading efficiency. While prior works have focused on recognition tasks, we investigate the effectiveness of this approach for the restoration task of single-image super-resolution (SISR). We present a lightweight super-resolution pipeline that operates on JPEG discrete cosine transform (DCT) coefficients in the frequency domain. Our pipeline achieves a 2.6x speedup in data loading and a 2.5x speedup in training, while preserving visual quality comparable to standard SISR approaches.
- Abstract(参考訳): ディープラーニングモデルはますます複雑になってきており、それに従ってデータサイズが拡大している。
専門的なディープラーニングハードウェアの大幅な進歩にもかかわらず、データローディングはトレーニングと推論速度を制限する大きなボトルネックであり続けている。
そこで本研究では,JPEGの完全復号化に伴う計算オーバーヘッドを低減し,データのロード効率を大幅に向上させるとともに,JPEGの符号化機能を直接トレーニングするモデルを提案する。
先行研究は認識タスクに重点を置いているが、単一画像超解像(SISR)の復元タスクにおけるこのアプローチの有効性について検討する。
本稿では、周波数領域におけるJPEG離散コサイン変換(DCT)係数を利用する軽量超解像パイプラインを提案する。
当社のパイプラインでは、データロードの2.6倍のスピードアップとトレーニングの2.5倍のスピードアップを実現しています。
関連論文リスト
- Task-Aware Image Signal Processor for Advanced Visual Perception [32.29324101518987]
Task-Aware Image Signal Processing (TA-ISP) はRAW-to-RGBフレームワークであり、事前訓練された視覚モデルのためのタスク指向表現を生成する。
TA-ISPは、パラメータカウントと推論時間を著しく削減しながら、ダウンストリームの精度を一貫して改善する。
リソース制約のあるデバイスへのデプロイに適している。
論文 参考訳(メタデータ) (2025-09-17T07:16:51Z) - CALLIC: Content Adaptive Learning for Lossless Image Compression [64.47244912937204]
CALLICは、学習したロスレス画像圧縮のための新しい最先端(SOTA)を設定する。
本稿では,畳み込みゲーティング操作を利用したコンテンツ認識型自己回帰自己保持機構を提案する。
エンコーディング中、低ランク行列を用いて深度の畳み込みを含む事前学習層を分解し、レート誘導プログレッシブファインタニング(RPFT)による画像検査にインクリメンタルウェイトを適応させる。
推定エントロピーにより下位順にソートされたパッチを徐々に増加させたRPFTファインチューン,学習過程の最適化,適応時間の短縮を実現した。
論文 参考訳(メタデータ) (2024-12-23T10:41:18Z) - PassionSR: Post-Training Quantization with Adaptive Scale in One-Step Diffusion based Image Super-Resolution [95.98801201266099]
拡散に基づく画像超解像(SR)モデルでは、複数のデノナイジングステップのコストで優れた性能を示す。
本稿では,一段階拡散(OSD)画像SR,PassionSRにおける適応スケールの学習後量子化手法を提案する。
我々のPassionSRは、画像SRの最近の先進的な低ビット量子化法に対して大きな利点がある。
論文 参考訳(メタデータ) (2024-11-26T04:49:42Z) - JDEC: JPEG Decoding via Enhanced Continuous Cosine Coefficients [17.437568540883106]
本稿では,コサインの連続的定式化による局所的暗黙的ニューラル表現を用いたJPEG画像デコーディングの実践的手法を提案する。
提案するネットワークは,フレキシブルカラー画像JPEGアーティファクト削除タスクにおける最先端性能を実現する。
論文 参考訳(メタデータ) (2024-04-03T03:28:04Z) - CNNs for JPEGs: A Study in Computational Cost [45.74830585715129]
畳み込みニューラルネットワーク(CNN)は過去10年間で驚くべき進歩を遂げてきた。
CNNはRGBピクセルから直接データの堅牢な表現を学習することができる。
近年,圧縮領域から直接学習できる深層学習手法が注目されている。
論文 参考訳(メタデータ) (2023-09-20T15:49:38Z) - Neural JPEG: End-to-End Image Compression Leveraging a Standard JPEG
Encoder-Decoder [73.48927855855219]
本稿では,エンコーダとデコーダの両端に内在するニューラル表現を強化することで,符号化性能の向上を図るシステムを提案する。
実験により,提案手法はJPEGに対する速度歪み性能を,様々な品質指標で改善することを示した。
論文 参考訳(メタデータ) (2022-01-27T20:20:03Z) - CNNs for JPEGs: A Study in Computational Cost [49.97673761305336]
畳み込みニューラルネットワーク(CNN)は過去10年間で驚くべき進歩を遂げてきた。
CNNはRGBピクセルから直接データの堅牢な表現を学習することができる。
近年,圧縮領域から直接学習できる深層学習手法が注目されている。
論文 参考訳(メタデータ) (2020-12-26T15:00:10Z) - A Novel Memory-Efficient Deep Learning Training Framework via
Error-Bounded Lossy Compression [6.069852296107781]
本稿では,メモリ駆動型高速DNNトレーニングフレームワークを提案する。
我々のフレームワークは、ベースライントレーニングと圧縮による最先端フレームワークよりも最大13.5xと1.8xのトレーニングメモリ消費を大幅に削減することができる。
論文 参考訳(メタデータ) (2020-11-18T00:47:21Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。