論文の概要: Accurate Image Restoration with Attention Retractable Transformer
- arxiv url: http://arxiv.org/abs/2210.01427v1
- Date: Tue, 4 Oct 2022 07:35:01 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-05 14:24:14.872271
- Title: Accurate Image Restoration with Attention Retractable Transformer
- Title(参考訳): 注意引き込み式変圧器による高精度画像復元
- Authors: Jiale Zhang and Yulun Zhang and Jinjin Gu and Yongbing Zhang and
Linghe Kong and Xin Yuan
- Abstract要約: 画像復元のためのアテンション・リトラクタブル・トランス (ART) を提案する。
ARTはネットワーク内の密集モジュールと疎開モジュールの両方を提示する。
画像超解像、デノナイジング、JPEG圧縮アーティファクト削減タスクについて広範な実験を行った。
- 参考スコア(独自算出の注目度): 50.05204240159985
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Recently, Transformer-based image restoration networks have achieved
promising improvements over convolutional neural networks due to
parameter-independent global interactions. To lower computational cost,
existing works generally limit self-attention computation within
non-overlapping windows. However, each group of tokens are always from a dense
area of the image. This is considered as a dense attention strategy since the
interactions of tokens are restrained in dense regions. Obviously, this
strategy could result in restricted receptive fields. To address this issue, we
propose Attention Retractable Transformer (ART) for image restoration, which
presents both dense and sparse attention modules in the network. The sparse
attention module allows tokens from sparse areas to interact and thus provides
a wider receptive field. Furthermore, the alternating application of dense and
sparse attention modules greatly enhances representation ability of Transformer
while providing retractable attention on the input image.We conduct extensive
experiments on image super-resolution, denoising, and JPEG compression artifact
reduction tasks. Experimental results validate that our proposed ART
outperforms state-of-the-art methods on various benchmark datasets both
quantitatively and visually. We also provide code and models at the website
https://github.com/gladzhang/ART.
- Abstract(参考訳): 近年,変圧器を用いた画像復元ネットワークは,パラメータ非依存なグローバルインタラクションにより畳み込みニューラルネットワークよりも有望な改善を達成している。
計算コストを下げるために、既存の作業は一般にオーバーラップしないウィンドウ内での自己注意計算を制限する。
しかし、各トークン群は常に画像の濃密な領域からのものである。
これは、トークンの相互作用が濃密な地域で抑制されているため、集中的な注意戦略であると考えられている。
当然、この戦略は受容の場に制限を与える可能性がある。
この問題に対処するため,画像復元のためのART (Atention Retractable Transformer) を提案する。
スパースアテンションモジュールは、スパース領域からのトークンの相互作用を可能にし、より広い受容場を提供する。
さらに,高密度かつ疎度なアテンションモジュールの交互適用により,トランスフォーマーの表現能力が大きく向上し,画像の超解像,デノナイジング,JPEG圧縮アーティファクト削減タスクについて広範な実験を行った。
実験により,提案手法が定量的および視覚的に様々なベンチマークデータセットにおいて最先端の手法よりも優れていることを確認した。
また、Webサイトhttps://github.com/gladzhang/ART.comでコードとモデルを提供しています。
関連論文リスト
- Look-Around Before You Leap: High-Frequency Injected Transformer for Image Restoration [46.96362010335177]
本稿では,画像復元のための簡易かつ効果的な高周波インジェクト変換器HITを提案する。
具体的には,機能マップに高頻度の詳細を組み込んだウィンドウワイドインジェクションモジュール(WIM)を設計し,高品質な画像の復元のための信頼性の高い参照を提供する。
さらに,BIMにおけるチャネル次元の計算によって失われる可能性のある空間的関係を維持するために,空間拡張ユニット(SEU)を導入する。
論文 参考訳(メタデータ) (2024-03-30T08:05:00Z) - HAT: Hybrid Attention Transformer for Image Restoration [61.74223315807691]
トランスフォーマーに基づく手法は、画像の超解像や復調といった画像復元タスクにおいて顕著な性能を示している。
本稿では,新たなHAT(Hybrid Attention Transformer)を提案する。
我々のHATは,定量的かつ定性的に,最先端の性能を達成する。
論文 参考訳(メタデータ) (2023-09-11T05:17:55Z) - T-former: An Efficient Transformer for Image Inpainting [50.43302925662507]
トランスフォーマーと呼ばれる注目に基づくネットワークアーキテクチャのクラスは、自然言語処理の分野で大きなパフォーマンスを示している。
本稿では,Taylorの展開に応じて,解像度に線形に関連付けられた新たな注意を設計し,この注意に基づいて,画像インペイントのためのネットワークである$T$-formerを設計する。
いくつかのベンチマークデータセットの実験により,提案手法は比較的少ないパラメータ数と計算複雑性を維持しつつ,最先端の精度を達成できることが示されている。
論文 参考訳(メタデータ) (2023-05-12T04:10:42Z) - Transformer Compressed Sensing via Global Image Tokens [4.722333456749269]
低解像度入力に自然に画像を埋め込む新しい画像分解法を提案する。
我々は、よく知られたCS-MRIニューラルネットワークのCNNコンポーネントをTNNブロックに置き換え、KDによる改善を実証する。
論文 参考訳(メタデータ) (2022-03-24T05:56:30Z) - Restormer: Efficient Transformer for High-Resolution Image Restoration [118.9617735769827]
畳み込みニューラルネットワーク(CNN)は、大規模データから一般化可能な画像の事前学習をうまく行う。
トランスフォーマーは、自然言語とハイレベルな視覚タスクにおいて、顕著なパフォーマンス向上を示している。
我々のモデルであるRecovery Transformer (Restormer) は、いくつかの画像復元タスクにおいて最先端の結果を得る。
論文 参考訳(メタデータ) (2021-11-18T18:59:10Z) - CAT: Cross Attention in Vision Transformer [39.862909079452294]
クロスアテンション(Cross Attention)と呼ばれるトランスフォーマーにおける新しいアテンション機構を提案する。
画像全体ではなく、イメージパッチの内部に注意を置き、ローカル情報をキャプチャする。
我々は、他の視覚タスクのためのCAT(Cross Attention Transformer)と呼ばれる階層的なネットワークを構築します。
論文 参考訳(メタデータ) (2021-06-10T14:38:32Z) - Less is More: Pay Less Attention in Vision Transformers [61.05787583247392]
注意の少ないvIsion Transformerは、畳み込み、完全接続層、自己アテンションが、画像パッチシーケンスを処理するためにほぼ同等な数学的表現を持つという事実に基づいている。
提案したLITは、画像分類、オブジェクト検出、インスタンス分割を含む画像認識タスクにおいて有望な性能を達成する。
論文 参考訳(メタデータ) (2021-05-29T05:26:07Z) - Image Fine-grained Inpainting [89.17316318927621]
拡張畳み込みの密結合を利用してより大きく効果的な受容場を得る一段階モデルを提案する。
この効率的なジェネレータをよく訓練するために、頻繁に使用されるVGG特徴整合損失を除いて、新しい自己誘導回帰損失を設計する。
また、局所的・グローバルな分枝を持つ識別器を用いて、局所的・グローバルな内容の整合性を確保する。
論文 参考訳(メタデータ) (2020-02-07T03:45:25Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。