論文の概要: Hybrid Convolution and Frequency State Space Network for Image Compression
- arxiv url: http://arxiv.org/abs/2511.20151v1
- Date: Tue, 25 Nov 2025 10:21:42 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-11-26 17:37:04.400756
- Title: Hybrid Convolution and Frequency State Space Network for Image Compression
- Title(参考訳): 画像圧縮のためのハイブリッド畳み込みと周波数状態空間ネットワーク
- Authors: Haodong Pan, Hao Wei, Yusong Wang, Nanning Zheng, Caigui Jiang,
- Abstract要約: 畳み込みニューラルネットワーク(CNN)は、局所的な高周波の詳細をキャプチャする。
変換器と状態空間モデル(SSM)は強力な長距離モデリング機能を提供する。
本稿では,ハイブリッドコンボリューションと周波数状態空間ネットワークを提案する。
- 参考スコア(独自算出の注目度): 37.44884590063737
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Learned image compression (LIC) has recently benefited from Transformer based and state space model (SSM) based architectures. Convolutional neural networks (CNNs) effectively capture local high frequency details, whereas Transformers and SSMs provide strong long range modeling capabilities but may cause structural information loss or ignore frequency characteristics that are crucial for compression. In this work we propose HCFSSNet, a Hybrid Convolution and Frequency State Space Network for LIC. HCFSSNet uses CNNs to extract local high frequency structures and introduces a Vision Frequency State Space (VFSS) block that models long range low frequency information. The VFSS block combines an Omni directional Neighborhood State Space (VONSS) module, which scans features horizontally, vertically and diagonally, with an Adaptive Frequency Modulation Module (AFMM) that applies content adaptive weighting of discrete cosine transform frequency components for more efficient bit allocation. To further reduce redundancy in the entropy model, we integrate AFMM with a Swin Transformer to form a Frequency Swin Transformer Attention Module (FSTAM) for frequency aware side information modeling. Experiments on the Kodak, Tecnick and CLIC Professional Validation datasets show that HCFSSNet achieves competitive rate distortion performance compared with recent SSM based codecs such as MambaIC, while using significantly fewer parameters. On Kodak, Tecnick and CLIC, HCFSSNet reduces BD rate over the VTM anchor by 18.06, 24.56 and 22.44 percent, respectively, providing an efficient and interpretable hybrid architecture for future learned image compression systems.
- Abstract(参考訳): Learned Image compression (lic)は、Transformerベースおよび状態空間モデル(SSM)ベースのアーキテクチャの恩恵を受けている。
畳み込みニューラルネットワーク(CNN)は、局所的な高周波の詳細を効果的にキャプチャする一方、TransformerとSSMは強力な長距離モデリング機能を提供するが、圧縮に不可欠な構造的情報損失や周波数特性を無視する可能性がある。
本研究では,ハイブリッドコンボリューションと周波数状態空間ネットワークであるHCFSSNetを提案する。
HCFSSNetはCNNを用いて局所的な高周波構造を抽出し、長距離低周波情報をモデル化するビジョン周波数状態空間(VFSS)ブロックを導入する。
VFSSブロックは、水平、垂直、斜めに特徴をスキャンするOmni directional Neighborhood State Space (VONSS) モジュールと、より効率的なビット割り当てのために離散コサイン変換周波数成分のコンテンツ適応重み付けを適用するAdaptive Frequency Modulation Module (AFMM) を組み合わせる。
エントロピーモデルにおける冗長性をさらに低減するため、周波数認識側情報モデリングのための周波数スウィントランスフォーマーアテンションモジュール(FSTAM)を形成するために、AFMMをスウィントランスフォーマーと統合する。
Kodak、Tecnick、CLIC Professional Validationデータセットの実験では、HCFSSNetはMambaICのような最近のSSMベースのコーデックと比較して、競合速度の歪み性能を実現し、パラメータは大幅に少ない。
Kodak、Tecnick、CLICでは、HCFSSNetはVTMアンカーのBDレートを18.06、24.56、22.44パーセント削減し、将来の学習画像圧縮システムのための効率的かつ解釈可能なハイブリッドアーキテクチャを提供する。
関連論文リスト
- Large Kernel Modulation Network for Efficient Image Super-Resolution [5.875680381119361]
Large Kernel Modulation Network (LKMN) は純粋なCNNベースのモデルである。
LKMNには2つのコアコンポーネントがある: Enhanced partial Large Kernel Block (EPLKB) と Cross-Gate Feed-Forward Network (CGFN) である。
LKMN-L は Manga109 データセットの DAT-light よりも 0.23 dB PSNR の改善を 4 ドルアップスケールで達成し、ほぼ 4.8 倍高速である。
論文 参考訳(メタデータ) (2025-08-16T03:43:14Z) - Freqformer: Image-Demoiréing Transformer via Efficient Frequency Decomposition [83.40450475728792]
本稿では,Freqformerについて述べる。Freqformerは,ターゲット周波数分離による画像復号化に特化して設計されたトランスフォーマーベースのフレームワークである。
本手法は,モワールパターンを高周波数空間局在化テクスチャと低周波数スケールローバスト色歪みに明確に分割する有効な周波数分解を行う。
様々なデモアのベンチマーク実験により、Freqformerは、コンパクトなモデルサイズで最先端のパフォーマンスを達成することを示した。
論文 参考訳(メタデータ) (2025-05-25T12:23:10Z) - Frequency Dynamic Convolution for Dense Image Prediction [34.915070244005854]
本稿では、FDConv( Frequency Dynamic Convolution)を導入し、Fourierドメインの固定パラメータ予算を学習することで制限を緩和する。
FDConvは、この予算を不整合フーリエ指数を持つ周波数ベースのグループに分割し、パラメータコストを増大させることなく周波数幅の重みを構築することができる。
我々は、ResNet-50に適用した場合、FDConvは、+3.6Mパラメータを適度に増加させ、優れた性能を達成することを実証した。
論文 参考訳(メタデータ) (2025-03-24T15:32:06Z) - CMamba: Learned Image Compression with State Space Models [31.10785880342252]
本稿では,コンボリューションと状態空間モデル(SSM)をベースとした画像圧縮フレームワークを提案する。
具体的には、CMambaはContent-Adaptive SSM(CA-SSM)モジュールとContext-Aware Entropy(CAE)モジュールの2つの重要なコンポーネントを紹介している。
実験の結果,CMambaは高い速度歪み性能が得られることがわかった。
論文 参考訳(メタデータ) (2025-02-07T15:07:04Z) - Bi-Level Spatial and Channel-aware Transformer for Learned Image Compression [0.0]
本稿では,特徴マップ内の周波数成分を考慮したトランスフォーマーに基づく画像圧縮手法を提案する。
本手法は,空間ベース分岐が高周波数と低周波数を独立に扱うHSCATB(Hybrid Space-Channel Attention Transformer Block)を統合した。
また、トランスフォーマーブロック内にMLGFFN(Mixed Local-Global Feed Forward Network)を導入し、多様な情報とリッチな情報の抽出を強化する。
論文 参考訳(メタデータ) (2024-08-07T15:35:25Z) - Frequency-Aware Transformer for Learned Image Compression [64.28698450919647]
学習画像圧縮(lic)のためのマルチスケール指向性アナリシスを初めて実現した周波数認識変換器(FAT)ブロックを提案する。
FATブロックは、自然画像のマルチスケールおよび指向性周波数成分をキャプチャするための周波数分解ウィンドウアテンション(FDWA)モジュールを含む。
また、周波数変調フィードフォワードネットワーク(FMFFN)を導入し、異なる周波数成分を適応的に変調し、周波数歪み性能を向上させる。
論文 参考訳(メタデータ) (2023-10-25T05:59:25Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。