論文の概要: Dynamic Scene Deblurring Base on Continuous Cross-Layer Attention
Transmission
- arxiv url: http://arxiv.org/abs/2206.11476v1
- Date: Thu, 23 Jun 2022 04:55:13 GMT
- ステータス: 処理完了
- システム内更新日: 2022-06-24 13:39:10.331550
- Title: Dynamic Scene Deblurring Base on Continuous Cross-Layer Attention
Transmission
- Title(参考訳): 連続クロスレイヤーアテンション伝送における動的シーンデブラリングベース
- Authors: Xia Hua, Junxiong Fei, Mingxin Li, ZeZheng Li, Yu Shi, JiangGuo Liu
and Hanyu Hong
- Abstract要約: 我々は,すべての畳み込み層からの階層的注意情報を活用するための,新しい連続的層間注意伝達(CCLAT)機構を導入する。
RDAFB をビルディングブロックとし,RDAFNet という動的シーン分離のための効果的なアーキテクチャを設計する。
ベンチマークデータセットの実験では、提案されたモデルが最先端のデブロワーリングアプローチよりも優れていることが示されている。
- 参考スコア(独自算出の注目度): 6.3482616879743885
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The deep convolutional neural networks (CNNs) using attention mechanism have
achieved great success for dynamic scene deblurring. In most of these networks,
only the features refined by the attention maps can be passed to the next layer
and the attention maps of different layers are separated from each other, which
does not make full use of the attention information from different layers in
the CNN. To address this problem, we introduce a new continuous cross-layer
attention transmission (CCLAT) mechanism that can exploit hierarchical
attention information from all the convolutional layers. Based on the CCLAT
mechanism, we use a very simple attention module to construct a novel residual
dense attention fusion block (RDAFB). In RDAFB, the attention maps inferred
from the outputs of the preceding RDAFB and each layer are directly connected
to the subsequent ones, leading to a CRLAT mechanism. Taking RDAFB as the
building block, we design an effective architecture for dynamic scene
deblurring named RDAFNet. The experiments on benchmark datasets show that the
proposed model outperforms the state-of-the-art deblurring approaches, and
demonstrate the effectiveness of CCLAT mechanism. The source code is available
on: https://github.com/xjmz6/RDAFNet.
- Abstract(参考訳): 注意機構を用いた深層畳み込みニューラルネットワーク(CNN)は、動的シーンデブロアリングにおいて大きな成功を収めている。
これらのネットワークの多くは、アテンションマップによって改良された特徴のみを次のレイヤに渡すことができ、異なるレイヤのアテンションマップを分離することで、CNN内の異なるレイヤからのアテンション情報をフル活用することができない。
この問題に対処するために,すべての畳み込み層からの階層的注意情報を活用するための,新しい連続的層間注意伝達(CCLAT)機構を導入する。
CCLAT機構に基づき、我々は非常に単純な注意モジュールを用いて、新しい高密度注意融合ブロック(RDAFB)を構築する。
RDAFBでは、前のRDAFBの出力から推定される注目マップと各レイヤとが直接接続され、CRLAT機構が導かれる。
RDAFB をビルディングブロックとし,RDAFNet という動的シーン分離のための効果的なアーキテクチャを設計する。
ベンチマークデータセットの実験により,提案手法は最先端のデブロアリング手法よりも優れており,CCLAT機構の有効性が示された。
ソースコードはhttps://github.com/xjmz6/rdafnet。
関連論文リスト
- Strengthening Layer Interaction via Dynamic Layer Attention [12.341997220052486]
既存のレイヤーアテンション手法は固定された特徴写像上の層間相互作用を静的に達成する。
注意機構の動的コンテキスト表現能力を復元するために,動的レイヤアテンションアーキテクチャを提案する。
実験の結果,提案したDLAアーキテクチャの有効性が示され,画像認識や物体検出タスクにおける他の最先端手法よりも優れていた。
論文 参考訳(メタデータ) (2024-06-19T09:35:14Z) - TAME: Attention Mechanism Based Feature Fusion for Generating
Explanation Maps of Convolutional Neural Networks [8.395400675921515]
TAME(Trainable Attention Mechanism for Explanations)はマルチブランチ階層型アテンション機構を用いた説明マップを生成する方法である。
TAMEは、アテンションメカニズムのトレーニング方法の最適化を合理化することにより、任意の畳み込みニューラルネットワーク(CNN)に容易に適用できる。
論文 参考訳(メタデータ) (2023-01-18T10:05:28Z) - A Generic Shared Attention Mechanism for Various Backbone Neural Networks [53.36677373145012]
自己注意モジュール(SAM)は、異なる層にまたがる強い相関した注意マップを生成する。
Dense-and-Implicit Attention (DIA)はSAMをレイヤ間で共有し、長期間のメモリモジュールを使用する。
我々のシンプルで効果的なDIAは、様々なネットワークバックボーンを一貫して拡張できます。
論文 参考訳(メタデータ) (2022-10-27T13:24:08Z) - Self-Supervised Implicit Attention: Guided Attention by The Model Itself [1.3406858660972554]
我々は、深層ニューラルネットワークモデルに適応的に誘導し、モデル自体の特性を活用する新しいアプローチである、自己監視インシシット注意(SSIA:Self-Supervised Implicit Attention)を提案する。
SSIAAは、推論中に余分なパラメータ、計算、メモリアクセスコストを必要としない新しいアテンションメカニズムである。
私たちの実装はGitHubで公開されます。
論文 参考訳(メタデータ) (2022-06-15T10:13:34Z) - Over-and-Under Complete Convolutional RNN for MRI Reconstruction [57.95363471940937]
MR画像再構成のための最近のディープラーニングに基づく手法は、通常、汎用的なオートエンコーダアーキテクチャを利用する。
OUCR(Over-and-Under Complete Convolu?tional Recurrent Neural Network)を提案する。
提案手法は, トレーニング可能なパラメータの少ない圧縮されたセンシングと, 一般的なディープラーニングに基づく手法に対して, 大幅な改善を実現する。
論文 参考訳(メタデータ) (2021-06-16T15:56:34Z) - Spatio-Temporal Inception Graph Convolutional Networks for
Skeleton-Based Action Recognition [126.51241919472356]
我々はスケルトンに基づく行動認識のためのシンプルで高度にモジュール化されたグラフ畳み込みネットワークアーキテクチャを設計する。
ネットワークは,空間的および時間的経路から多粒度情報を集約するビルディングブロックを繰り返すことで構築される。
論文 参考訳(メタデータ) (2020-11-26T14:43:04Z) - Attention-Guided Network for Iris Presentation Attack Detection [13.875545441867137]
本稿では注意誘導型アイリス提示攻撃検出(AG-PAD)を提案する。
JHU-APLプロプライエタリデータセットとベンチマークのLivDet-Iris-2017データセットの両方を含む実験は、提案手法が有望な結果をもたらすことを示唆している。
論文 参考訳(メタデータ) (2020-10-23T19:23:51Z) - Single Image Super-Resolution via a Holistic Attention Network [87.42409213909269]
本稿では,階層,チャネル,位置間の全体的相互依存性をモデル化するための新しい全体論的注意ネットワーク(HAN)を提案する。
提案したHANは階層的特徴を適応的に強調し,層間相関を考慮した。
実験により、提案HANは、最先端の単一画像超解像アプローチに対して好適に機能することが示された。
論文 参考訳(メタデータ) (2020-08-20T04:13:15Z) - GCN for HIN via Implicit Utilization of Attention and Meta-paths [104.24467864133942]
不均一情報ネットワーク(HIN)埋め込みは、HINの構造と意味情報を分散表現にマッピングすることを目的としている。
本稿では,注意とメタパスを暗黙的に活用するニューラルネットワーク手法を提案する。
まず、各層で識別集約を行う多層グラフ畳み込みネットワーク(GCN)フレームワークを用いる。
次に,アグリゲーションから分離可能な新しい伝搬操作を導入することにより,効果的な緩和と改善を行う。
論文 参考訳(メタデータ) (2020-07-06T11:09:40Z) - Weakly Supervised Attention Pyramid Convolutional Neural Network for
Fine-Grained Visual Classification [71.96618723152487]
注意ピラミッド畳み込みニューラルネットワーク(AP-CNN)について紹介する。
AP-CNNは高レベルのセマンティックと低レベルの詳細な特徴表現の両方を学ぶ。
追加のバウンディングボックス/パートアノテーションを必要とせずに、エンドツーエンドでトレーニングすることができる。
論文 参考訳(メタデータ) (2020-02-09T12:33:23Z) - Hybrid Multiple Attention Network for Semantic Segmentation in Aerial
Images [24.35779077001839]
グローバルな相関関係を適応的に捉えるために,Hybrid Multiple Attention Network (HMANet) という新しいアテンションベースのフレームワークを提案する。
本稿では,機能的冗長性を低減し,自己注意機構の効率を向上させるため,単純で効果的な領域シャッフルアテンション(RSA)モジュールを提案する。
論文 参考訳(メタデータ) (2020-01-09T07:47:51Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。