論文の概要: SwinFSR: Stereo Image Super-Resolution using SwinIR and Frequency Domain
Knowledge
- arxiv url: http://arxiv.org/abs/2304.12556v1
- Date: Tue, 25 Apr 2023 03:54:58 GMT
- ステータス: 処理完了
- システム内更新日: 2023-04-26 21:57:53.235154
- Title: SwinFSR: Stereo Image Super-Resolution using SwinIR and Frequency Domain
Knowledge
- Title(参考訳): SwinFSR: SwinIRと周波数領域知識を用いたステレオ画像超解法
- Authors: Ke Chen, Liangyan Li, Huan Liu, Yunzhe Li, Congling Tang and Jun Chen
- Abstract要約: 本研究では,SwinIRを拡張した新しいSwinFSR法を提案する。
ステレオビューの効率的かつ正確な融合を実現するため,RCAMと呼ばれる新しいクロスアテンションモジュールを提案する。
- 参考スコア(独自算出の注目度): 27.344004897917515
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Stereo Image Super-Resolution (stereoSR) has attracted significant attention
in recent years due to the extensive deployment of dual cameras in mobile
phones, autonomous vehicles and robots. In this work, we propose a new StereoSR
method, named SwinFSR, based on an extension of SwinIR, originally designed for
single image restoration, and the frequency domain knowledge obtained by the
Fast Fourier Convolution (FFC). Specifically, to effectively gather global
information, we modify the Residual Swin Transformer blocks (RSTBs) in SwinIR
by explicitly incorporating the frequency domain knowledge using the FFC and
employing the resulting residual Swin Fourier Transformer blocks (RSFTBs) for
feature extraction. Besides, for the efficient and accurate fusion of stereo
views, we propose a new cross-attention module referred to as RCAM, which
achieves highly competitive performance while requiring less computational cost
than the state-of-the-art cross-attention modules. Extensive experimental
results and ablation studies demonstrate the effectiveness and efficiency of
our proposed SwinFSR.
- Abstract(参考訳): ステレオ・イメージ・スーパーレゾリューション(stereosr)は近年、携帯電話、自動運転車、ロボットにデュアルカメラを多用するなど、大きな注目を集めている。
本稿では,swiinirの拡張と高速フーリエ畳み込み(ffc)によって得られた周波数領域知識をもとに,swiinfsrという新しいステレオsr手法を提案する。
具体的には、グローバル情報を効果的に収集するために、FFCを用いて周波数領域の知識を明示的に取り入れ、特徴抽出に残りのSwin Fourier Transformerブロック(RSFTB)を用いることで、SwinIRのResidual Swin Transformerブロック(RSTB)を変更する。
また、ステレオビューの効率良く正確な融合のために、rcamと呼ばれる新しいクロスアテンションモジュールを提案し、最先端のクロスアテンションモジュールよりも少ない計算コストで高い競合性能を実現する。
広範な実験結果とアブレーション実験により,提案するsinfsrの有効性と有効性が実証された。
関連論文リスト
- FE-UNet: Frequency Domain Enhanced U-Net with Segment Anything Capability for Versatile Image Segmentation [50.9040167152168]
CNNのコントラスト感度関数を実験的に定量化し,人間の視覚システムと比較した。
本稿ではウェーブレット誘導分光ポーリングモジュール(WSPM)を提案する。
人間の視覚系をさらにエミュレートするために、周波数領域拡張受容野ブロック(FE-RFB)を導入する。
本研究では,SAM2 をバックボーンとし,Hiera-Large を事前学習ブロックとして組み込んだ FE-UNet を開発した。
論文 参考訳(メタデータ) (2025-02-06T07:24:34Z) - HAT: Hybrid Attention Transformer for Image Restoration [61.74223315807691]
トランスフォーマーに基づく手法は、画像の超解像や復調といった画像復元タスクにおいて顕著な性能を示している。
本稿では,新たなHAT(Hybrid Attention Transformer)を提案する。
我々のHATは,定量的かつ定性的に,最先端の性能を達成する。
論文 参考訳(メタデータ) (2023-09-11T05:17:55Z) - RFR-WWANet: Weighted Window Attention-Based Recovery Feature Resolution
Network for Unsupervised Image Registration [7.446209993071451]
Swin変換器は、その計算効率と長距離モデリング能力のために、医用画像解析に注目を集めている。
トランスフォーマーに基づく登録モデルは、複数のボクセルを単一のセマンティックトークンに結合する。
このマージプロセスは変換器をモデルに制限し、粗い粒度の空間情報を生成する。
本研究では, 高精度な空間情報提供を可能にするRFRNet(Recovery Feature Resolution Network)を提案する。
論文 参考訳(メタデータ) (2023-05-07T09:57:29Z) - Contextual Learning in Fourier Complex Field for VHR Remote Sensing
Images [64.84260544255477]
変圧器を用いたモデルでは、一般解像度(224x224ピクセル)の自然画像から高次文脈関係を学習する優れた可能性を示した
そこで本研究では,高次文脈情報のモデル化を行う複雑な自己意識(CSA)機構を提案する。
CSAブロックの様々な層を積み重ねることで、VHR空中画像からグローバルな文脈情報を学習するFourier Complex Transformer(FCT)モデルを提案する。
論文 参考訳(メタデータ) (2022-10-28T08:13:33Z) - ITSRN++: Stronger and Better Implicit Transformer Network for Continuous
Screen Content Image Super-Resolution [32.441761727608856]
提案手法は,SCI SR(x3 SRでは0.74dBのSwinIR性能)の最先端性能を実現し,自然画像SRにも有効である。
大規模なSCI2Kデータセットを構築し,SCI SRの研究を容易にする。
論文 参考訳(メタデータ) (2022-10-17T07:47:34Z) - SwinFIR: Revisiting the SwinIR with Fast Fourier Convolution and
Improved Training for Image Super-Resolution [1.305100137416611]
我々は、Fast Fourier Convolution (FFC) コンポーネントを置き換えることで、SwinIRを拡張するSwinFIRを提案する。
本アルゴリズムは,最新のSwinIR法よりも0.8dB高いManga109データセット上で32.83dBのPSNRを実現する。
論文 参考訳(メタデータ) (2022-08-24T01:04:47Z) - Residual Swin Transformer Channel Attention Network for Image
Demosaicing [3.8073142980733]
ディープニューラルネットワークは画像復元、特にデモで広く使われており、大幅な性能向上を実現している。
本稿では,SwinIRの成功に触発されて,RTTCANetと呼ばれる画像復調のための新しいSwin Transformerベースのネットワークを提案する。
論文 参考訳(メタデータ) (2022-04-14T16:45:17Z) - Transformer-based SAR Image Despeckling [53.99620005035804]
本稿では,SAR画像復号化のためのトランスフォーマーネットワークを提案する。
提案する非特定ネットワークは、トランスフォーマーベースのエンコーダにより、異なる画像領域間のグローバルな依存関係を学習することができる。
実験により,提案手法は従来型および畳み込み型ニューラルネットワークに基づく解法よりも大幅に改善されていることが示された。
論文 参考訳(メタデータ) (2022-01-23T20:09:01Z) - Deep Burst Super-Resolution [165.90445859851448]
バースト超解像タスクのための新しいアーキテクチャを提案する。
我々のネットワークは複数のノイズRAW画像を入力として取り出し、出力として分解された超解像RGB画像を生成する。
実世界のデータのトレーニングと評価を可能にするため,BurstSRデータセットも導入する。
論文 参考訳(メタデータ) (2021-01-26T18:57:21Z) - Frequency Consistent Adaptation for Real World Super Resolution [64.91914552787668]
実シーンにスーパーリゾリューション(SR)法を適用する際に周波数領域の整合性を保証する新しい周波数一貫性適応(FCA)を提案する。
監視されていない画像から劣化カーネルを推定し、対応するLow-Resolution (LR)画像を生成する。
ドメイン一貫性のあるLR-HRペアに基づいて、容易に実装可能な畳み込みニューラルネットワーク(CNN)SRモデルを訓練する。
論文 参考訳(メタデータ) (2020-12-18T08:25:39Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。