論文の概要: HiDE: Hierarchical Dictionary-Based Entropy Modeling for Learned Image Compression
- arxiv url: http://arxiv.org/abs/2603.06766v1
- Date: Fri, 06 Mar 2026 15:15:07 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-03-10 15:13:13.099576
- Title: HiDE: Hierarchical Dictionary-Based Entropy Modeling for Learned Image Compression
- Title(参考訳): HiDE:学習画像圧縮のための階層型辞書に基づくエントロピーモデリング
- Authors: Haoxuan Xiong, Yuanyuan Xu, Kun Zhu, Yiming Wang, Baoliu Ye,
- Abstract要約: 階層型辞書に基づく画像圧縮のためのエントロピーモデリングフレームワークであるHiDEを提案する。
我々は、HiDEがKodak、CLIC、Tecnickデータセット上のVTM-12.1よりも18.5%、21.99%、24.01%のBDレートの節約を達成したことを示す。
- 参考スコア(独自算出の注目度): 10.435646730519222
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Learned image compression (LIC) has achieved remarkable coding efficiency, where entropy modeling plays a pivotal role in minimizing bitrate through informative priors. Existing methods predominantly exploit internal contexts within the input image, yet the rich external priors embedded in large-scale training data remain largely underutilized. Recent advances in dictionary-based entropy models have demonstrated that incorporating external priors can substantially enhance compression performance. However, current approaches organize heterogeneous external priors within a single-level dictionary, resulting in imbalanced utilization and limited representational capacity. Moreover, effective entropy modeling requires not only expressive priors but also a parameter estimation network capable of interpreting them. To address these challenges, we propose HiDE, a Hierarchical Dictionary-based Entropy modeling framework for learned image compression. HiDE decomposes external priors into global structural and local detail dictionaries with cascaded retrieval, enabling structured and efficient utilization of external information. Moreover, a context-aware parameter estimator with parallel multi-receptive-field design is introduced to adaptively exploit heterogeneous contexts for accurate conditional probability estimation. Experimental results show that HiDE achieves 18.5%, 21.99%, and 24.01% BD-rate savings over VTM-12.1 on the Kodak, CLIC, and Tecnick datasets, respectively.
- Abstract(参考訳): 学習された画像圧縮(lic)は、エントロピーモデリングが情報的先行性によるビットレートの最小化において重要な役割を果たす、顕著な符号化効率を実現している。
既存の手法は入力画像の内部コンテキストを主に活用するが、大規模なトレーニングデータに埋め込まれたリッチな外部先入観はほとんど利用されていない。
辞書ベースのエントロピーモデルにおける最近の進歩は、外部の事前を組み込むことで、圧縮性能を大幅に向上させることができることを実証している。
しかし、現在のアプローチでは、単一レベルの辞書内で異質な外部先行を整理し、不均衡な利用と限られた表現能力をもたらす。
さらに、効果的なエントロピーモデリングには、表現力のある先行だけでなく、それを解釈できるパラメータ推定ネットワークも必要である。
これらの課題に対処するために,階層型辞書ベースのエントロピーモデリングフレームワークであるHiDEを提案する。
HiDEは、外部情報を大域的かつ局所的な詳細辞書に分解し、外部情報の構造化と効率的な利用を可能にする。
さらに、並列多受容場設計を用いたコンテキスト認識パラメータ推定器を導入し、不均一なコンテキストを適応的に利用して正確な条件付き確率推定を行う。
実験の結果、HiDEはKodak、CLIC、TecnickのデータセットでそれぞれVTM-12.1よりも18.5%、21.99%、24.01%のBDレートの節約を達成した。
関連論文リスト
- PDE-Constrained Optimization for Neural Image Segmentation with Physics Priors [0.0]
顕微鏡画像の画像は、計測ノイズ、弱い物体境界、限られたラベル付きデータによる不適切な逆問題を構成する。
本研究では,PDE制約付き最適化問題としてイメージセグメンテーションを定式化し,物理的に動機付けられた事前処理を深層学習モデルに統合する。
LIVECellデータセットは、高画質で手動による位相コントラスト顕微鏡画像の収集である。
論文 参考訳(メタデータ) (2026-02-01T07:28:14Z) - Visual Autoregressive Modelling for Monocular Depth Estimation [69.01449528371916]
本稿では,視覚的自己回帰(VAR)に基づく単眼深度推定手法を提案する。
提案手法は,大規模テキスト・画像VARモデルに適応し,スケールワイド・コンディショナル・アップサンプリング機構を導入する。
本研究では,屋内ベンチマークにおける制約付きトレーニング条件下での最先端性能と,屋外データセットに適用した場合の強い性能について報告する。
論文 参考訳(メタデータ) (2025-12-27T17:08:03Z) - Unlocking Out-of-Distribution Generalization in Dynamics through Physics-Guided Augmentation [46.40087254928057]
物理誘導量拡張プラグインのSPARKについて述べる。
多様なベンチマーク実験により、SPARKは最先端のベースラインを大幅に上回っていることが示された。
論文 参考訳(メタデータ) (2025-10-28T09:30:35Z) - Knowledge-Informed Neural Network for Complex-Valued SAR Image Recognition [51.03674130115878]
本稿では,新しい「圧縮集約圧縮」アーキテクチャ上に構築された軽量なフレームワークであるKnowledge-Informed Neural Network(KINN)を紹介する。
KINNはパラメータ効率の認識における最先端を確立し、データスカースとアウト・オブ・ディストリビューションのシナリオにおいて例外的な一般化を提供する。
論文 参考訳(メタデータ) (2025-10-23T07:12:26Z) - Entropy-Based Block Pruning for Efficient Large Language Models [81.18339597023187]
性能を維持しつつ効率を向上するエントロピー型プルーニング戦略を提案する。
経験的分析により、隠れ表現のエントロピーは初期ブロックでは減少するが、その後のほとんどのブロックでは徐々に増加することが明らかとなった。
論文 参考訳(メタデータ) (2025-04-04T03:42:34Z) - Learned Image Compression with Dictionary-based Entropy Model [32.966391277632646]
エントロピーモデルは学習画像圧縮において重要な役割を果たす。
既存の手法のほとんどは、エントロピーモデルを形成するためにハイパープライアおよび自動回帰アーキテクチャを使用した。
辞書に基づくクロスアテンションエントロピーモデルという新しいエントロピーモデルを提案する。
論文 参考訳(メタデータ) (2025-04-01T07:43:10Z) - SEE: Sememe Entanglement Encoding for Transformer-bases Models Compression [20.824040486029354]
トランスフォーマーベースの大規模言語モデルは画期的な能力を示すが、そのストレージと計算コストは高く、リソース制約のあるシナリオでの応用を制限している。
効率的なアプローチは、圧縮と性能のバランスを達成するために、効率的な専門家由来の知識構造を取り入れながら、冗長なモデルパラメータと計算コストを排除することである。
論文 参考訳(メタデータ) (2024-12-15T12:01:43Z) - Structural Entropy Guided Probabilistic Coding [52.01765333755793]
構造エントロピー誘導型確率的符号化モデルSEPCを提案する。
我々は、構造エントロピー正規化損失を提案することにより、潜在変数間の関係を最適化に組み込む。
分類タスクと回帰タスクの両方を含む12の自然言語理解タスクに対する実験結果は、SEPCの優れた性能を示す。
論文 参考訳(メタデータ) (2024-12-12T00:37:53Z) - Dynamic Kernel-Based Adaptive Spatial Aggregation for Learned Image
Compression [63.56922682378755]
本稿では,空間アグリゲーション機能の拡張に焦点をあて,動的カーネルベースの変換符号化を提案する。
提案したアダプティブアグリゲーションはカーネルオフセットを生成し、コンテント条件付き範囲の有効な情報をキャプチャして変換を支援する。
実験により,本手法は,最先端の学習手法と比較して,3つのベンチマークにおいて高い速度歪み性能が得られることを示した。
論文 参考訳(メタデータ) (2023-08-17T01:34:51Z) - Learning Context-Based Non-local Entropy Modeling for Image Compression [140.64888994506313]
本稿では,文脈内でのグローバルな類似性を利用して,文脈モデリングのための非局所的操作を提案する。
エントロピーモデルはさらに、結合速度歪み最適化における速度損失として採用されている。
低歪みモデルのトレーニングに変換の幅が不可欠であることを考えると、最終的に変換のU-Netブロックを生成して、管理可能なメモリ消費と時間複雑性で幅を拡大する。
論文 参考訳(メタデータ) (2020-05-10T13:28:18Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。