論文の概要: Multi-image Super-resolution via Quality Map Associated Temporal
Attention Network
- arxiv url: http://arxiv.org/abs/2202.13124v1
- Date: Sat, 26 Feb 2022 12:10:08 GMT
- ステータス: 処理完了
- システム内更新日: 2022-03-03 10:32:37.569247
- Title: Multi-image Super-resolution via Quality Map Associated Temporal
Attention Network
- Title(参考訳): 品質マップと時間アテンションネットワークによるマルチイメージ超解像
- Authors: Minji Lee, Inyong Koo, Kangwook Ko, Changick Kim
- Abstract要約: 品質マップ関連時間的注意ネットワーク(QA-Net)を提案する。
低分解能な特徴は、繰り返しのマルチヘッドアテンションモジュールにおけるQM特徴に時間的に付随する。
提案手法は, PROBA-V データセットを用いて最先端の結果を得た。
- 参考スコア(独自算出の注目度): 23.480558658490995
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: With the rising interest in deep learning-based methods in remote sensing,
neural networks have made remarkable advancements in multi-image fusion and
super-resolution. To fully exploit the advantages of multi-image
super-resolution, temporal attention is crucial as it allows a model to focus
on reliable features rather than noises. Despite the presence of quality maps
(QMs) that indicate noises in images, most of the methods tested in the PROBA-V
dataset have not been used QMs for temporal attention. We present a quality map
associated temporal attention network (QA-Net), a novel method that
incorporates QMs into both feature representation and fusion processes for the
first time. Low-resolution features are temporally attended by QM features in
repeated multi-head attention modules. The proposed method achieved
state-of-the-art results in the PROBA-V dataset.
- Abstract(参考訳): リモートセンシングにおけるディープラーニングベースの手法への関心が高まり、ニューラルネットワークはマルチイメージ融合とスーパーレゾリューションにおいて顕著な進歩を遂げている。
マルチイメージ・スーパーレゾリューションの利点を十分に活用するには、モデルがノイズよりも信頼性の高い機能に集中できるため、時間的注意が不可欠である。
画像のノイズを示す品質マップ(QMs)が存在するにもかかわらず、PRBA-Vデータセットでテストされたほとんどの方法は、時間的注意のためにQMsを使用していない。
本稿では,QMを特徴表現と融合プロセスの両方に組み込む新しい手法である品質マップ関連時間的注意ネットワーク(QA-Net)を提案する。
低分解能な特徴は、繰り返しマルチヘッドアテンションモジュールにおけるQM特徴に時間的に付随する。
提案手法は, PROBA-V データセットを用いて最先端の結果を得た。
関連論文リスト
- Multi-task Feature Enhancement Network for No-Reference Image Quality Assessment [4.4150617622399055]
マルチタスク戦略に基づくNo-Reference Image Quality Assessment (NR-IQA)手法はいくつかの課題に直面する。
本フレームワークは,高周波抽出ネットワーク,品質推定ネットワーク,歪み認識ネットワークの3つの主要コンポーネントから構成される。
5つの標準IQAデータベースによる実験結果から,本手法が高い性能を達成し,堅牢な一般化能力を示すことが確認された。
論文 参考訳(メタデータ) (2024-11-12T05:10:32Z) - An Advanced Features Extraction Module for Remote Sensing Image Super-Resolution [0.5461938536945723]
チャネル・アンド・スペースアテンション特徴抽出(CSA-FE)と呼ばれる高度な特徴抽出モジュールを提案する。
提案手法は,高頻度情報を含む特定のチャネルや空間的位置に着目し,関連する特徴に焦点を合わせ,無関係な特徴を抑えるのに役立つ。
本モデルは,既存モデルと比較して優れた性能を示した。
論文 参考訳(メタデータ) (2024-05-07T18:15:51Z) - Adaptive Feature Selection for No-Reference Image Quality Assessment by Mitigating Semantic Noise Sensitivity [55.399230250413986]
上流タスクから有害なセマンティックノイズを除去するためのQFM-IQM(Quality-Aware Feature Matching IQA Metric)を提案する。
提案手法は,8つの標準IQAデータセット上での最先端NR-IQA法よりも優れた性能を実現する。
論文 参考訳(メタデータ) (2023-12-11T06:50:27Z) - Assessor360: Multi-sequence Network for Blind Omnidirectional Image
Quality Assessment [50.82681686110528]
Blind Omnidirectional Image Quality Assessment (BOIQA)は、全方位画像(ODI)の人間の知覚品質を客観的に評価することを目的としている。
ODIの品質評価は、既存のBOIQAパイプラインがオブザーバのブラウジングプロセスのモデリングを欠いているという事実によって著しく妨げられている。
Assessor360と呼ばれるBOIQAのための新しいマルチシーケンスネットワークを提案する。
論文 参考訳(メタデータ) (2023-05-18T13:55:28Z) - Learning Enriched Features for Fast Image Restoration and Enhancement [166.17296369600774]
本稿では,ネットワーク全体を通して空間的精度の高い高解像度表現を維持することを目的とする。
我々は、高解像度の空間的詳細を同時に保存しながら、複数のスケールからの文脈情報を組み合わせた豊富な特徴集合を学習する。
提案手法は,デフォーカス・デブロアリング,画像デノイング,超解像,画像強調など,さまざまな画像処理タスクに対して,最先端の処理結果を実現する。
論文 参考訳(メタデータ) (2022-04-19T17:59:45Z) - Efficient and Accurate Multi-scale Topological Network for Single Image
Dehazing [31.543771270803056]
本稿では,入力画像自体の特徴抽出と利用に注意を払います。
本稿では,マルチスケールトポロジカルネットワーク (mstn) を提案する。
一方、我々は、異なるスケールで機能の選択と融合を達成するために、マルチスケール機能融合モジュール(MFFM)と適応機能選択モジュール(AFSM)を設計します。
論文 参考訳(メタデータ) (2021-02-24T08:53:14Z) - Searching Multi-Rate and Multi-Modal Temporal Enhanced Networks for
Gesture Recognition [89.0152015268929]
RGB-Dジェスチャ認識のための最初のニューラルアーキテクチャサーチ(NAS)手法を提案する。
提案手法は,1)3次元中央差分畳畳み込み(3D-CDC)ファミリーによる時間的表現の強化,および多モードレート分岐と横方向接続のための最適化されたバックボーンを含む。
結果として得られたマルチレートネットワークは、RGBと深さ変調と時間力学の関係を理解するための新しい視点を提供する。
論文 参考訳(メタデータ) (2020-08-21T10:45:09Z) - MuCAN: Multi-Correspondence Aggregation Network for Video
Super-Resolution [63.02785017714131]
ビデオ超解像(VSR)は、複数の低解像度フレームを使用して、各フレームに対して高解像度の予測を生成することを目的としている。
フレーム間およびフレーム内は、時間的および空間的情報を利用するための鍵となるソースである。
VSRのための効果的なマルチ対応アグリゲーションネットワーク(MuCAN)を構築した。
論文 参考訳(メタデータ) (2020-07-23T05:41:27Z) - Multi-image Super Resolution of Remotely Sensed Images using Residual
Feature Attention Deep Neural Networks [1.3764085113103222]
本研究は,マルチイメージ超解像課題に効果的に取り組む新しい残像注意モデル(RAMS)を提案する。
本研究では,3次元畳み込みによる視覚特徴の注意機構を導入し,意識的なデータ融合と情報抽出を実現する。
我々の表現学習ネットワークは、冗長な低周波信号を流すためにネストした残差接続を広範囲に利用している。
論文 参考訳(メタデータ) (2020-07-06T22:54:02Z) - Learning Enriched Features for Real Image Restoration and Enhancement [166.17296369600774]
畳み込みニューラルネットワーク(CNN)は、画像復元作業における従来のアプローチよりも劇的に改善されている。
ネットワーク全体を通して空間的精度の高い高解像度表現を維持することを目的とした,新しいアーキテクチャを提案する。
提案手法は,高解像度の空間的詳細を同時に保存しながら,複数のスケールからの文脈情報を組み合わせた豊富な特徴集合を学習する。
論文 参考訳(メタデータ) (2020-03-15T11:04:30Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。