論文の概要: XYScanNet: An Interpretable State Space Model for Perceptual Image Deblurring
- arxiv url: http://arxiv.org/abs/2412.10338v2
- Date: Sat, 01 Feb 2025 02:31:31 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-02-04 16:04:57.637358
- Title: XYScanNet: An Interpretable State Space Model for Perceptual Image Deblurring
- Title(参考訳): XYScanNet: 知覚的画像劣化のための解釈可能な状態空間モデル
- Authors: Hanzhou Liu, Chengkai Liu, Jiacong Xu, Peng Jiang, Mi Lu,
- Abstract要約: ディープステートスペースモデル(SSM)は、CNNやTransformerネットワークに代わる有望な選択肢として浮上している。
本研究では,スライスとスライスを交互に走査するスライス・アンド・スキャン方式を提案する。
我々はXYScanNetを開発した。XYScanNetは軽量な機能融合モジュールと統合されたSSMアーキテクチャで、画像の劣化を改善できる。
- 参考スコア(独自算出の注目度): 6.9752432140704705
- License:
- Abstract: Deep state-space models (SSMs), like recent Mamba architectures, are emerging as a promising alternative to CNN and Transformer networks. Existing Mamba-based restoration methods process the visual data by leveraging a flatten-and-scan strategy that converts image patches into a 1D sequence before scanning. However, this scanning paradigm ignores local pixel dependencies and introduces spatial misalignment by positioning distant pixels incorrectly adjacent, which reduces local noise-awareness and degrades image sharpness in low-level vision tasks. To overcome these issues, we propose a novel slice-and-scan strategy that alternates scanning along intra- and inter-slices. We further design a new Vision State Space Module (VSSM) for image deblurring, and tackle the inefficiency challenges of the current Mamba-based vision module. Building upon this, we develop XYScanNet, an SSM architecture integrated with a lightweight feature fusion module for enhanced image deblurring. XYScanNet, maintains competitive distortion metrics and significantly improves perceptual performance. Experimental results show that XYScanNet enhances KID by $17\%$ compared to the nearest competitor. Our code will be released soon.
- Abstract(参考訳): 最近のMambaアーキテクチャと同様に、Deep State-space Model (SSM) はCNNやTransformerネットワークに代わる有望な選択肢として浮上している。
既存のマンバベースの復元方法は、スキャン前に画像パッチを1Dシーケンスに変換するフラット・アンド・スキャン戦略を活用することで、視覚データを処理している。
しかし、この走査パラダイムは、局所的な画素依存を無視し、不正確な隣接画素を位置決めすることで空間的不整合を導入し、低レベルの視覚タスクにおいて、局所的なノイズ認識を低減し、画像のシャープネスを低下させる。
これらの問題を克服するために,スライス・アンド・スキャンの新たな手法を提案し,スライス内およびスライス間を走査する。
我々はさらに、イメージデブロアのための新しいビジョンステートスペースモジュール(VSSM)を設計し、現在のMambaベースのビジョンモジュールの非効率な課題に対処する。
そこで我々は,XYScanNetを開発した。XYScanNet,XYScanNet,XYScanNet,XYScanNet,XYScanNet,XYScanNet,XYScanNet,XYScanNet,XYScanNetは軽量な機能融合モジュールと統合されたSSMアーキテクチャである。
XYScanNetは、競合する歪みの指標を維持し、知覚性能を大幅に改善する。
実験の結果、XYScanNetは最も近い競合相手と比較してKIDを17.%向上させることがわかった。
私たちのコードはまもなくリリースされるでしょう。
関連論文リスト
- SEM-Net: Efficient Pixel Modelling for image inpainting with Spatially Enhanced SSM [11.447968918063335]
画像の塗装は、画像の既知の領域の情報に基づいて、部分的に損傷した画像の修復を目的としている。
SEM-Netは、新しいビジュアル・ステート・スペース・モデル(SSM)ビジョン・ネットワークであり、画像の劣化をピクセルレベルでモデル化し、状態空間における長距離依存(LRD)をキャプチャする。
論文 参考訳(メタデータ) (2024-11-10T00:35:14Z) - Spatial-Mamba: Effective Visual State Space Models via Structure-Aware State Fusion [46.82975707531064]
SSM(Selective State Space Model)は、1Dシーケンシャルデータにおける長距離依存関係のキャプチャに優れる。
本研究では,地域間直接接続を実現する新しいアプローチであるSpatial-Mambaを提案する。
画像分類,検出,セグメンテーションにおいて,空間マンバは,単一のスキャンであっても,最先端のSSMベースのモデルを達成したり,超えたりしていることを示す。
論文 参考訳(メタデータ) (2024-10-19T12:56:58Z) - MambaCSR: Dual-Interleaved Scanning for Compressed Image Super-Resolution With SSMs [14.42424591513825]
MambaCSRは、圧縮画像超解像(CSR)タスクのためのMambaをベースにしたフレームワークである。
本稿では,2つの走査戦略からなるCSRのための効率的なデュアルインターリーブ走査パラダイム(DIS)を提案する。
複数のベンチマークの結果から,圧縮画像超解像タスクにおけるMambaCSRの優れた性能が示された。
論文 参考訳(メタデータ) (2024-08-21T16:30:45Z) - Cross-Scan Mamba with Masked Training for Robust Spectral Imaging [51.557804095896174]
本研究では,空間スペクトルSSMを用いたクロススキャンマンバ(CS-Mamba)を提案する。
実験の結果, CS-Mambaは最先端の性能を達成し, マスク付きトレーニング手法によりスムーズな特徴を再構築し, 視覚的品質を向上させることができた。
論文 参考訳(メタデータ) (2024-08-01T15:14:10Z) - MHS-VM: Multi-Head Scanning in Parallel Subspaces for Vision Mamba [0.43512163406552]
Mambaとのステートスペースモデル(SSM)は、線形複雑性を伴う長距離依存性モデリングを大いに約束している。
1次元選択的スキャンにより2次元画像空間内の視覚的特徴を効果的に整理・構築するために,新しいマルチヘッドスキャン(MHS)モジュールを提案する。
その結果、マルチヘッドスキャンプロセスから得られたサブ埋め込みは統合され、最終的に高次元空間に投影される。
論文 参考訳(メタデータ) (2024-06-10T03:24:43Z) - Efficient Visual State Space Model for Image Deblurring [83.57239834238035]
畳み込みニューラルネットワーク(CNN)とビジョントランスフォーマー(ViT)は、画像復元において優れた性能を発揮している。
本稿では,画像のデブロアに対する簡易かつ効果的な視覚状態空間モデル(EVSSM)を提案する。
論文 参考訳(メタデータ) (2024-05-23T09:13:36Z) - LocalMamba: Visual State Space Model with Windowed Selective Scan [45.00004931200446]
Vision Mamba (ViM) を強化する鍵は、シーケンスモデリングのためのスキャン方向を最適化することにある。
画像を異なるウィンドウに分割し、ローカル依存関係を効果的にキャプチャする新しいローカルスキャン戦略を導入する。
我々のモデルは、同じ1.5G FLOPでImageNetでVim-Tiを3.1%上回りました。
論文 参考訳(メタデータ) (2024-03-14T12:32:40Z) - VMamba: Visual State Space Model [92.83984290020891]
VMambaは、線形時間複雑性で動作するビジョンバックボーンである。
VMambaのコアには2D Selective Scan (SS2D)モジュールを備えたVisual State-Space (VSS)ブロックのスタックがある。
論文 参考訳(メタデータ) (2024-01-18T17:55:39Z) - Hyper-VolTran: Fast and Generalizable One-Shot Image to 3D Object
Structure via HyperNetworks [53.67497327319569]
画像から3Dまでを1つの視点から解く新しいニューラルレンダリング手法を提案する。
提案手法では, 符号付き距離関数を表面表現として使用し, 幾何エンコードボリュームとハイパーネットワークスによる一般化可能な事前処理を取り入れた。
本実験は,一貫した結果と高速な生成による提案手法の利点を示す。
論文 参考訳(メタデータ) (2023-12-24T08:42:37Z) - Accurate Image Restoration with Attention Retractable Transformer [50.05204240159985]
画像復元のためのアテンション・リトラクタブル・トランス (ART) を提案する。
ARTはネットワーク内の密集モジュールと疎開モジュールの両方を提示する。
画像超解像、デノナイジング、JPEG圧縮アーティファクト削減タスクについて広範な実験を行った。
論文 参考訳(メタデータ) (2022-10-04T07:35:01Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。