論文の概要: Pyramid Attention Networks for Image Restoration
- arxiv url: http://arxiv.org/abs/2004.13824v4
- Date: Wed, 3 Jun 2020 18:47:11 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-08 21:57:29.284853
- Title: Pyramid Attention Networks for Image Restoration
- Title(参考訳): 画像復元のためのピラミッド注意ネットワーク
- Authors: Yiqun Mei, Yuchen Fan, Yulun Zhang, Jiahui Yu, Yuqian Zhou, Ding Liu,
Yun Fu, Thomas S. Huang and Humphrey Shi
- Abstract要約: 自己相似性(Self-similarity)とは、画像復元アルゴリズムで広く使われる画像を指す。
近年の深層畳み込みニューラルネットワークによる画像復元手法は, 自己相似性を十分に活用していない。
画像復元のための新しいピラミッドアテンションモジュールを提案し,マルチスケール特徴ピラミッドから長距離特徴対応をキャプチャする。
- 参考スコア(独自算出の注目度): 124.34970277136061
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Self-similarity refers to the image prior widely used in image restoration
algorithms that small but similar patterns tend to occur at different locations
and scales. However, recent advanced deep convolutional neural network based
methods for image restoration do not take full advantage of self-similarities
by relying on self-attention neural modules that only process information at
the same scale. To solve this problem, we present a novel Pyramid Attention
module for image restoration, which captures long-range feature correspondences
from a multi-scale feature pyramid. Inspired by the fact that corruptions, such
as noise or compression artifacts, drop drastically at coarser image scales,
our attention module is designed to be able to borrow clean signals from their
"clean" correspondences at the coarser levels. The proposed pyramid attention
module is a generic building block that can be flexibly integrated into various
neural architectures. Its effectiveness is validated through extensive
experiments on multiple image restoration tasks: image denoising, demosaicing,
compression artifact reduction, and super resolution. Without any bells and
whistles, our PANet (pyramid attention module with simple network backbones)
can produce state-of-the-art results with superior accuracy and visual quality.
Our code will be available at
https://github.com/SHI-Labs/Pyramid-Attention-Networks
- Abstract(参考訳): 自己相似性(Self-similarity)とは、画像復元アルゴリズムにおいて、小さいが類似したパターンが異なる場所やスケールで発生する傾向にある画像である。
しかし,近年の深層畳み込みニューラルネットワークによる画像復元手法は,同じスケールでのみ情報を処理する自己認識型ニューラルネットワークを頼りにすることで,自己相似性を最大限に活用するものではない。
そこで本稿では,マルチスケール特徴ピラミッドから長距離特徴対応を捉えた,画像復元のための新しいピラミッドアテンションモジュールを提案する。
ノイズや圧縮加工品などの汚職が粗い画像スケールで劇的に減少するという事実にインスパイアされた我々の注目モジュールは、粗いレベルの「クリーン」対応からクリーンな信号を借りられるように設計されている。
提案されたピラミッドアテンションモジュールは、様々なニューラルネットワークアーキテクチャに柔軟に統合できる汎用的なビルディングブロックである。
その効果は、画像のデノイジング、デモサイシング、圧縮アーティファクトの削減、スーパーレゾリューションなど、複数の画像復元タスクに関する広範囲な実験を通じて検証される。
私たちのpanet(pyramid attention module with simple network backbones)は、精度とビジュアルクオリティに優れて、最先端の成果を生み出すことができます。
私たちのコードはhttps://github.com/SHI-Labs/Pyramid-Attention-Networksで公開されます。
関連論文リスト
- Disruptive Autoencoders: Leveraging Low-level features for 3D Medical
Image Pre-training [51.16994853817024]
本研究は、3Dラジオグラフィ画像のための効果的な事前学習フレームワークの設計に焦点をあてる。
ローカルマスキングと低レベルの摂動の組み合わせによって生成された破壊から、オリジナルのイメージを再構築しようとする事前トレーニングフレームワークであるDisruptive Autoencodersを紹介する。
提案する事前トレーニングフレームワークは、複数のダウンストリームタスクでテストされ、最先端のパフォーマンスを実現する。
論文 参考訳(メタデータ) (2023-07-31T17:59:42Z) - Accurate Image Restoration with Attention Retractable Transformer [50.05204240159985]
画像復元のためのアテンション・リトラクタブル・トランス (ART) を提案する。
ARTはネットワーク内の密集モジュールと疎開モジュールの両方を提示する。
画像超解像、デノナイジング、JPEG圧縮アーティファクト削減タスクについて広範な実験を行った。
論文 参考訳(メタデータ) (2022-10-04T07:35:01Z) - The Devil Is in the Details: Window-based Attention for Image
Compression [58.1577742463617]
既存の学習画像圧縮モデルは畳み込みニューラルネットワーク(CNN)に基づいている。
本稿では,複数種類の注意機構が局所特徴学習に与える影響について検討し,より単純で効果的なウィンドウベースの局所的注意ブロックを提案する。
提案されたウィンドウベースのアテンションは非常に柔軟で、CNNとTransformerモデルを強化するためのプラグイン・アンド・プレイコンポーネントとして機能する可能性がある。
論文 参考訳(メタデータ) (2022-03-16T07:55:49Z) - Restormer: Efficient Transformer for High-Resolution Image Restoration [118.9617735769827]
畳み込みニューラルネットワーク(CNN)は、大規模データから一般化可能な画像の事前学習をうまく行う。
トランスフォーマーは、自然言語とハイレベルな視覚タスクにおいて、顕著なパフォーマンス向上を示している。
我々のモデルであるRecovery Transformer (Restormer) は、いくつかの画像復元タスクにおいて最先端の結果を得る。
論文 参考訳(メタデータ) (2021-11-18T18:59:10Z) - Image Compression with Recurrent Neural Network and Generalized Divisive
Normalization [3.0204520109309843]
深層学習は研究コミュニティから大きな注目を集め、将来有望な画像再構成結果を生み出している。
近年の手法は、ネットワークの複雑さを大幅に増大させる、より深い複雑なネットワークの開発に焦点を当てている。
本稿では、畳み込み層を用いた解析とブロック合成と、可変レートエンコーダとデコーダ側における一般化分割正規化(GDN)の2つの有効な新しいブロックを開発する。
論文 参考訳(メタデータ) (2021-09-05T05:31:55Z) - PNEN: Pyramid Non-Local Enhanced Networks [23.17149002568982]
我々は,各画素間の接続を構築するために,新しい非局所モジュールであるピラミッド非局所ブロックを提案する。
提案したモジュールに基づいて,エッジ保存画像平滑化のためのピラミッド非局所拡張ネットワークを考案する。
超解像法と超解像法という2つの既存手法に統合し,一貫した性能向上を実現した。
論文 参考訳(メタデータ) (2020-08-22T03:10:48Z) - Lightweight Modules for Efficient Deep Learning based Image Restoration [20.701733377216932]
そこで我々は,与えられたベースラインモデルの計算的低コストな変種を生成するために,いくつかの軽量な低レベルモジュールを提案する。
その結果,提案するネットワークは,全容量ベースラインと比較して,視覚的に類似した再構成を一貫して出力することがわかった。
論文 参考訳(メタデータ) (2020-07-11T19:35:00Z) - Neural Sparse Representation for Image Restoration [116.72107034624344]
スパース符号化に基づく画像復元モデルの堅牢性と効率に触発され,深部ネットワークにおけるニューロンの空間性について検討した。
本手法は,隠れたニューロンに対する空間的制約を構造的に強制する。
実験により、複数の画像復元タスクのためのディープニューラルネットワークではスパース表現が不可欠であることが示されている。
論文 参考訳(メタデータ) (2020-06-08T05:15:17Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。