論文の概要: Reinforced Swin-Convs Transformer for Underwater Image Enhancement
- arxiv url: http://arxiv.org/abs/2205.00434v1
- Date: Sun, 1 May 2022 09:46:33 GMT
- ステータス: 処理完了
- システム内更新日: 2022-05-03 16:04:26.032029
- Title: Reinforced Swin-Convs Transformer for Underwater Image Enhancement
- Title(参考訳): 水中画像強調用強化swin-convs変圧器
- Authors: Tingdi Ren, Haiyong Xu, Gangyi Jiang, Mei Yu, Ting Luo
- Abstract要約: 水中画像強調法(URSCT-UIE)のための新しいU-Netベースの強化スイムコン変換器を提案する。
提案したURSCT-UIEは,主観的評価と客観的評価の両面において,他の手法と比較して最先端性能を実現する。
- 参考スコア(独自算出の注目度): 19.647647411934535
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Underwater Image Enhancement (UIE) technology aims to tackle the challenge of
restoring the degraded underwater images due to light absorption and
scattering. To address problems, a novel U-Net based Reinforced Swin-Convs
Transformer for the Underwater Image Enhancement method (URSCT-UIE) is
proposed. Specifically, with the deficiency of U-Net based on pure
convolutions, we embedded the Swin Transformer into U-Net for improving the
ability to capture the global dependency. Then, given the inadequacy of the
Swin Transformer capturing the local attention, the reintroduction of
convolutions may capture more local attention. Thus, we provide an ingenious
manner for the fusion of convolutions and the core attention mechanism to build
a Reinforced Swin-Convs Transformer Block (RSCTB) for capturing more local
attention, which is reinforced in the channel and the spatial attention of the
Swin Transformer. Finally, the experimental results on available datasets
demonstrate that the proposed URSCT-UIE achieves state-of-the-art performance
compared with other methods in terms of both subjective and objective
evaluations. The code will be released on GitHub after acceptance.
- Abstract(参考訳): 水中画像強調(UIE)技術は、光吸収と散乱による劣化した水中画像の復元という課題に取り組むことを目的としている。
水中画像強調法(URSCT-UIE)のための新しいU-NetベースのReinforced Swin-Convs Transformerを提案する。
具体的には、純粋な畳み込みに基づくU-Netの欠如により、グローバルな依存関係をキャプチャする能力を改善するために、Swin TransformerをU-Netに組み込んだ。
そして、スウィントランスが地元の注意を惹きつけることのできない状況を考えると、畳み込みの再導入はよりローカルな注意を惹きつける可能性がある。
これにより、畳み込みの融合とコアアテンション機構とが融合して、スウィントランスの空間的アテンションとチャネル内で強化された、より局所的なアテンションを捕捉する強化スウィン-コンバストランスブロック(rsctb)を構築するための巧妙な方法を提供する。
最後に、利用可能なデータセットに関する実験結果から、本提案手法は主観的評価と客観的評価の両方において、他の手法と比較して最先端の性能を達成できることが示されている。
コードは受け入れた後にGitHubでリリースされる。
関連論文リスト
- Gabor-guided transformer for single image deraining [2.330361251490783]
単一画像デライニングのためのGabor-Guided tranformer(Gabformer)を提案する。
Gaborフィルタによって処理された情報をクエリベクトルに組み込むことにより、ローカルテクスチャ機能へのフォーカスが強化される。
我々の手法は最先端の手法より優れている。
論文 参考訳(メタデータ) (2024-03-12T07:41:51Z) - Segmentation Guided Sparse Transformer for Under-Display Camera Image
Restoration [91.65248635837145]
Under-Display Camera(UDC)は、ディスプレイパネルの下にカメラを隠してフルスクリーン表示を実現する新興技術である。
本稿では,UDC 画像復元に Vision Transformer を用いることで,大量の冗長情報やノイズを大域的注目度で検出する。
UDC劣化画像から高品質な画像を復元するためのガイドスパース変換器(SGSFormer)を提案する。
論文 参考訳(メタデータ) (2024-03-09T13:11:59Z) - Progressive Feedback-Enhanced Transformer for Image Forgery Localization [3.765051882812805]
本稿では,プログレッシブフィードbACkエンハンストランスフォーマー(ProFact)ネットワークを提案する。
実世界の法医学的シナリオに近い大規模な画像サンプルを自動的に生成する効果的な手法を提案する。
提案するローカライザは,画像フォージェリーのローカライゼーション能力とロバスト性において,最先端のローカライザを大きく上回っている。
論文 参考訳(メタデータ) (2023-11-15T12:31:43Z) - SwinFSR: Stereo Image Super-Resolution using SwinIR and Frequency Domain
Knowledge [27.344004897917515]
本研究では,SwinIRを拡張した新しいSwinFSR法を提案する。
ステレオビューの効率的かつ正確な融合を実現するため,RCAMと呼ばれる新しいクロスアテンションモジュールを提案する。
論文 参考訳(メタデータ) (2023-04-25T03:54:58Z) - Image Deblurring by Exploring In-depth Properties of Transformer [86.7039249037193]
我々は、事前訓練された視覚変換器(ViT)から抽出した深い特徴を活用し、定量的な測定値によって測定された性能を犠牲にすることなく、回復した画像のシャープ化を促進する。
得られた画像と対象画像の変換器特徴を比較することにより、事前学習された変換器は、高解像度のぼやけた意味情報を提供する。
特徴をベクトルとみなし、抽出された画像から抽出された表現とユークリッド空間における対象表現との差を計算する。
論文 参考訳(メタデータ) (2023-03-24T14:14:25Z) - WITT: A Wireless Image Transmission Transformer for Semantic
Communications [11.480385893433802]
我々は、Wi-Fi画像トランス(WITT)を実現するための新しいバックボーンとして、視覚変換器(ViT)を再設計する。
WITTは、無線チャネルの効果を考慮して、画像伝送に高度に最適化されている。
我々の実験は、WITTが様々な画像解像度、歪みメトリクス、チャネル条件に対してより良い性能が得られることを検証した。
論文 参考訳(メタデータ) (2022-11-02T07:50:27Z) - Accurate Image Restoration with Attention Retractable Transformer [50.05204240159985]
画像復元のためのアテンション・リトラクタブル・トランス (ART) を提案する。
ARTはネットワーク内の密集モジュールと疎開モジュールの両方を提示する。
画像超解像、デノナイジング、JPEG圧縮アーティファクト削減タスクについて広範な実験を行った。
論文 参考訳(メタデータ) (2022-10-04T07:35:01Z) - The Nuts and Bolts of Adopting Transformer in GANs [124.30856952272913]
高忠実度画像合成のためのGAN(Generative Adversarial Network)フレームワークにおけるTransformerの特性について検討する。
我々の研究は、STrans-Gと呼ばれる畳み込みニューラルネットワーク(CNN)フリージェネレータであるGANにおけるトランスフォーマーの新しい代替設計につながる。
論文 参考訳(メタデータ) (2021-10-25T17:01:29Z) - SwinIR: Image Restoration Using Swin Transformer [124.8794221439392]
本研究では,Swin Transformerに基づく画像復元のための強力なベースラインモデルSwinIRを提案する。
SwinIRは、浅い特徴抽出、深い特徴抽出、高品質の画像再構成の3つの部分で構成されている。
画像超解像、画像デノイング、JPEG圧縮アーティファクト削減の3つの代表的なタスクについて実験を行った。
論文 参考訳(メタデータ) (2021-08-23T15:55:32Z) - Swin-Unet: Unet-like Pure Transformer for Medical Image Segmentation [63.46694853953092]
Swin-Unetは、医用画像セグメンテーション用のUnetライクなトランスフォーマーである。
トークン化されたイメージパッチは、TransformerベースのU字型デコーダデコーダアーキテクチャに供給される。
論文 参考訳(メタデータ) (2021-05-12T09:30:26Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。