論文の概要: Involution and BSConv Multi-Depth Distillation Network for Lightweight Image Super-Resolution
- arxiv url: http://arxiv.org/abs/2503.14779v2
- Date: Tue, 09 Sep 2025 00:18:14 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-09-10 14:38:26.777518
- Title: Involution and BSConv Multi-Depth Distillation Network for Lightweight Image Super-Resolution
- Title(参考訳): 軽量画像超解像のためのインボリューションとBSConv多層蒸留ネットワーク
- Authors: Akram Khatami-Rizi, Ahmad Mahmoudi-Aznaveh,
- Abstract要約: 低解像度(LR)入力から高解像度(HR)画像を再構成することを目的とした、コンピュータビジョンにおける基本的な問題である。
最近の研究は、複雑さを減らしながら正確性を維持する軽量アーキテクチャに焦点を当てている。
本稿では,SISR の軽量かつ効率的なアーキテクチャである Involution and BSConv Multi-Depth Distillation Network (IBMDN) について述べる。
- 参考スコア(独自算出の注目度): 1.8123128167427074
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Single-image super-resolution (SISR) is a fundamental problem in computer vision that aims to reconstruct high-resolution (HR) images from low-resolution (LR) inputs. Although convolutional neural networks (CNNs) have achieved substantial advancements, deeper architectures often introduce excessive parameters, higher memory usage, and computational cost, limiting their applicability on resource-constrained devices. Recent research has thus focused on lightweight architectures that preserve accuracy while reducing complexity. This paper presents the Involution and BSConv Multi-Depth Distillation Network (IBMDN), a lightweight and effective architecture for SISR. The proposed IBMDN comprises Involution and BSConv Multi-Depth Distillation Blocks (IBMDB) and a Contrast and High-Frequency Attention Block (CHFAB). IBMDB employs varying combinations of Involution and BSConv at multiple depths to perform efficient feature extraction while minimizing computational complexity. CHFAB, a lightweight self-attention mechanism, focuses on extracting high-frequency and contrast information to enhance perceptual quality in the reconstructed images. The flexible design of IBMDB enables it to be seamlessly integrated into diverse SISR frameworks, including information distillation, transformer-based, and GAN-based models. Extensive experiments demonstrate that incorporating IBMDB significantly reduces memory usage, parameters, and floating-point operations (FLOPs), while achieving improvements in both pixel-wise accuracy and visual quality. The source code is available at: https://github.com/akramkhatami/IBMDN.
- Abstract(参考訳): 低解像度(LR)入力から高解像度(HR)画像を再構成することを目的とした、コンピュータビジョンにおける基本的な問題である。
畳み込みニューラルネットワーク(CNN)は大幅な進歩を遂げているが、より深いアーキテクチャでは過剰なパラメータ、高いメモリ使用量、計算コストを導入し、リソース制約のあるデバイスへの適用性を制限している。
近年の研究は、複雑さを減らしながら精度を保ちながら軽量なアーキテクチャに焦点を当てている。
本稿では,SISR の軽量かつ効率的なアーキテクチャである Involution and BSConv Multi-Depth Distillation Network (IBMDN) について述べる。
提案したIBMDNは、InvolutionとBSConv Multi-Depth Distillation Blocks (IBMDB)とContrast and High-Frequency Attention Block (CHFAB)で構成されている。
IBMDBは、InvolutionとBSConvの様々な組み合わせを複数の深さで使用し、計算複雑性を最小化しながら効率的な特徴抽出を行う。
軽量な自己注意機構であるCHFABは、再構成画像の知覚品質を高めるために、高周波およびコントラスト情報を抽出することに焦点を当てている。
IBMDBの柔軟な設計により、情報蒸留、トランスフォーマーベース、GANベースのモデルなど、多様なSISRフレームワークにシームレスに統合できる。
IBMDBの導入により、メモリ使用量、パラメータ、浮動小数点演算(FLOP)が大幅に削減され、ピクセル単位の精度と視覚的品質の改善が達成される。
ソースコードは、https://github.com/akramkhatami/IBMDN.comで入手できる。
関連論文リスト
- DVMSR: Distillated Vision Mamba for Efficient Super-Resolution [7.551130027327461]
本研究では,ビジョン・マンバと蒸留戦略を組み込んだ新しい軽量画像SRネットワークであるDVMSRを提案する。
提案したDVMSRは,モデルパラメータの観点から,最先端の効率的なSR手法より優れている。
論文 参考訳(メタデータ) (2024-05-05T17:34:38Z) - Transforming Image Super-Resolution: A ConvFormer-based Efficient Approach [58.57026686186709]
本稿では, Convolutional Transformer Layer (ConvFormer) を導入し, ConvFormer-based Super-Resolution Network (CFSR) を提案する。
CFSRは畳み込みベースのアプローチとトランスフォーマーベースのアプローチの両方の利点を継承する。
CFSRは計算コストと性能のバランスが最適であることを示す実験である。
論文 参考訳(メタデータ) (2024-01-11T03:08:00Z) - RBSR: Efficient and Flexible Recurrent Network for Burst
Super-Resolution [57.98314517861539]
バースト超解像(BurstSR)は、高解像度(HR)画像を低解像度(LR)画像と雑音画像から再構成することを目的としている。
本稿では,効率よくフレキシブルなリカレントネットワークでフレーム単位のキューを融合させることを提案する。
論文 参考訳(メタデータ) (2023-06-30T12:14:13Z) - Binarized Spectral Compressive Imaging [59.18636040850608]
ハイパースペクトル画像(HSI)再構成のための既存のディープラーニングモデルは、優れた性能を実現するが、膨大なメモリと計算資源を持つ強力なハードウェアを必要とする。
本稿では,BiSRNet(Biarized Spectral-Redistribution Network)を提案する。
BiSRNetは,提案手法を用いてベースモデルのバイナライズを行う。
論文 参考訳(メタデータ) (2023-05-17T15:36:08Z) - SCALES: Boost Binary Neural Network for Image Super-Resolution with Efficient Scalings [20.32333278283026]
本稿では,レイヤワイズスケーリング係数と空間再スケーリング法,チャネルワイズ再スケーリング法からなるSRネットワークのバイナライズ手法を提案する。
ベースライン方式と比較してPSNRを1dB以上の精度で改善し,最初の精度の高いバイナリトランスフォーマーベースSRネットワークを実現する。
論文 参考訳(メタデータ) (2023-03-22T02:36:13Z) - Efficient Image Super-Resolution with Feature Interaction Weighted Hybrid Network [101.53907377000445]
軽量画像超解像は、低解像度画像から低計算コストで高解像度画像を再構成することを目的としている。
既存の方法では、活性化関数による中間層の特徴が失われる。
本稿では,中間的特徴損失が再構成品質に与える影響を最小限に抑えるために,特徴相互作用重み付きハイブリッドネットワーク(FIWHN)を提案する。
論文 参考訳(メタデータ) (2022-12-29T05:57:29Z) - Lightweight Bimodal Network for Single-Image Super-Resolution via
Symmetric CNN and Recursive Transformer [27.51790638626891]
シングルイメージ・スーパーレゾリューション(SISR)は、ディープラーニングの開発において大きなブレークスルーを達成している。
そこで本研究では,SISRのための軽量バイモーダルネットワーク(LBNet)を提案する。
具体的には,局所特徴抽出と粗い画像再構成に有効なシンメトリCNNを設計する。
論文 参考訳(メタデータ) (2022-04-28T04:43:22Z) - Asymmetric CNN for image super-resolution [102.96131810686231]
深層畳み込みニューラルネットワーク(CNN)は、過去5年間で低レベルビジョンに広く適用されています。
画像超解像のための非対称ブロック(AB)、mem?ory拡張ブロック(MEB)、高周波数特徴強調ブロック(HFFEB)からなる非対称CNN(ACNet)を提案する。
我々のACNetは、ブラインドノイズの単一画像超解像(SISR)、ブラインドSISR、ブラインドSISRを効果的に処理できる。
論文 参考訳(メタデータ) (2021-03-25T07:10:46Z) - Learning Frequency-aware Dynamic Network for Efficient Super-Resolution [56.98668484450857]
本稿では、離散コサイン変換(dct)領域の係数に応じて入力を複数の部分に分割する新しい周波数認識動的ネットワークについて検討する。
実際、高周波部は高価な操作で処理され、低周波部は計算負荷を軽減するために安価な操作が割り当てられる。
ベンチマークSISRモデルおよびデータセット上での実験は、周波数認識動的ネットワークが様々なSISRニューラルネットワークに使用できることを示している。
論文 参考訳(メタデータ) (2021-03-15T12:54:26Z) - Lightweight image super-resolution with enhanced CNN [82.36883027158308]
強い表現力を持つ深部畳み込みニューラルネットワーク(CNN)は、単一画像超解像(SISR)において印象的な性能を達成した
情報抽出・拡張ブロック(IEEB)、再構築ブロック(RB)、情報精製ブロック(IRB)の3つの連続したサブブロックを持つ軽量拡張SR CNN(LESRCNN)を提案する。
IEEBは階層的低分解能(LR)特徴を抽出し、SISRの深い層上の浅い層の記憶能力を高めるために、得られた特徴を段階的に集約する。
RBはグローバルに拡散することで低周波特徴を高周波特徴に変換する
論文 参考訳(メタデータ) (2020-07-08T18:03:40Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。