論文の概要: LAConv: Local Adaptive Convolution for Image Fusion
- arxiv url: http://arxiv.org/abs/2107.11617v1
- Date: Sat, 24 Jul 2021 14:15:32 GMT
- ステータス: 処理完了
- システム内更新日: 2021-07-28 06:29:14.272454
- Title: LAConv: Local Adaptive Convolution for Image Fusion
- Title(参考訳): LAConv:画像融合のためのローカル適応変換
- Authors: Zi-Rong Jin and Liang-Jian Deng and Tai-Xiang Jiang and Tian-Jing
Zhang
- Abstract要約: 局所適応畳み込み(LAConv)は、異なる空間位置に対して動的に調整される。
動的なバイアス(DYB)は、特徴の描写により多くの可能性を提供するために導入された。
パンシャルペン法とハイパースペクトル画像超解像法(HISR)の実験は,他の最先端手法よりも提案手法が優れていることを示す。
- 参考スコア(独自算出の注目度): 5.890700712095962
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The convolution operation is a powerful tool for feature extraction and plays
a prominent role in the field of computer vision. However, when targeting the
pixel-wise tasks like image fusion, it would not fully perceive the
particularity of each pixel in the image if the uniform convolution kernel is
used on different patches. In this paper, we propose a local adaptive
convolution (LAConv), which is dynamically adjusted to different spatial
locations. LAConv enables the network to pay attention to every specific local
area in the learning process. Besides, the dynamic bias (DYB) is introduced to
provide more possibilities for the depiction of features and make the network
more flexible. We further design a residual structure network equipped with the
proposed LAConv and DYB modules, and apply it to two image fusion tasks.
Experiments for pansharpening and hyperspectral image super-resolution (HISR)
demonstrate the superiority of our method over other state-of-the-art methods.
It is worth mentioning that LAConv can also be competent for other
super-resolution tasks with less computation effort.
- Abstract(参考訳): 畳み込み操作は特徴抽出のための強力なツールであり、コンピュータビジョンの分野において顕著な役割を果たす。
しかし、画像融合のようなピクセル単位のタスクをターゲットとする場合、均一な畳み込みカーネルが異なるパッチで使用される場合、画像内の各ピクセルの特異性を完全には認識できない。
本稿では,局所適応畳み込み(LAConv)を提案する。
laconvでは、ネットワークが学習プロセス内の特定のローカル領域に注意を払うことができる。
さらに、動的なバイアス(DYB)を導入して、機能描写の可能性を拡大し、ネットワークをより柔軟にする。
さらに,提案するlaconvとdybモジュールを用いた残差構造ネットワークの設計を行い,2つの画像融合タスクに適用する。
パンシャルペン法とハイパースペクトル画像超解像法(HISR)の実験は,他の最先端手法よりも提案手法が優れていることを示す。
LAConvは計算労力の少ない他の超高解像度タスクにも適している点に注意が必要だ。
関連論文リスト
- VDNA-PR: Using General Dataset Representations for Robust Sequential Visual Place Recognition [17.393105901701098]
本稿では、汎用データセット表現技術を用いて、堅牢な視覚的位置認識(VPR)記述子を生成する。
我々の実験は、我々の表現が、トレーニングデータ分布から真剣なドメインシフトへの現在の解決策よりも堅牢性を高めることができることを示している。
論文 参考訳(メタデータ) (2024-03-14T01:30:28Z) - CricaVPR: Cross-image Correlation-aware Representation Learning for Visual Place Recognition [73.51329037954866]
視覚的位置認識のための画像間相関認識を用いたロバストなグローバル表現手法を提案する。
本手法では,バッチ内の複数の画像の相関にアテンション機構を用いる。
本手法は,訓練時間を大幅に短縮し,最先端の手法よりも優れた性能を示す。
論文 参考訳(メタデータ) (2024-02-29T15:05:11Z) - TransY-Net:Learning Fully Transformer Networks for Change Detection of
Remote Sensing Images [64.63004710817239]
リモートセンシング画像CDのためのトランスフォーマーベース学習フレームワークTransY-Netを提案する。
グローバルな視点からの特徴抽出を改善し、ピラミッド方式で多段階の視覚的特徴を組み合わせる。
提案手法は,4つの光学式および2つのSAR画像CDベンチマーク上での最先端性能を実現する。
論文 参考訳(メタデータ) (2023-10-22T07:42:19Z) - HAT: Hybrid Attention Transformer for Image Restoration [61.74223315807691]
トランスフォーマーに基づく手法は、画像の超解像や復調といった画像復元タスクにおいて顕著な性能を示している。
本稿では,新たなHAT(Hybrid Attention Transformer)を提案する。
我々のHATは,定量的かつ定性的に,最先端の性能を達成する。
論文 参考訳(メタデータ) (2023-09-11T05:17:55Z) - Optimizing Vision Transformers for Medical Image Segmentation and
Few-Shot Domain Adaptation [11.690799827071606]
我々はCS-Unet(Convolutional Swin-Unet)トランスフォーマーブロックを提案し、パッチ埋め込み、プロジェクション、フィードフォワードネットワーク、サンプリングおよびスキップ接続に関連する設定を最適化する。
CS-Unetはゼロからトレーニングすることができ、各機能プロセスフェーズにおける畳み込みの優位性を継承する。
実験によると、CS-Unetは事前トレーニングなしで、パラメータが少ない2つの医療用CTおよびMRIデータセットに対して、最先端の他のデータセットを大きなマージンで上回っている。
論文 参考訳(メタデータ) (2022-10-14T19:18:52Z) - Cross-receptive Focused Inference Network for Lightweight Image
Super-Resolution [64.25751738088015]
トランスフォーマーに基づく手法は、単一画像超解像(SISR)タスクにおいて顕著な性能を示した。
動的に特徴を抽出するために文脈情報を組み込む必要がある変換器は無視される。
我々は,CNNとTransformerを混合したCTブロックのカスケードで構成される,軽量なクロスレセプティブ・フォーカスド・推論・ネットワーク(CFIN)を提案する。
論文 参考訳(メタデータ) (2022-07-06T16:32:29Z) - Activating More Pixels in Image Super-Resolution Transformer [53.87533738125943]
トランスフォーマーベースの手法は、画像超解像のような低レベルの視覚タスクにおいて顕著な性能を示している。
本稿では,新たなHAT(Hybrid Attention Transformer)を提案する。
提案手法は1dB以上で最先端の手法を著しく上回っている。
論文 参考訳(メタデータ) (2022-05-09T17:36:58Z) - Vision Transformer with Convolutions Architecture Search [72.70461709267497]
本稿では,畳み込み型アーキテクチャサーチ(VTCAS)を用いたアーキテクチャ探索手法を提案する。
VTCASによって探索された高性能バックボーンネットワークは、畳み込みニューラルネットワークの望ましい特徴をトランスフォーマーアーキテクチャに導入する。
これは、特に低照度屋内シーンにおいて、物体認識のためのニューラルネットワークの堅牢性を高める。
論文 参考訳(メタデータ) (2022-03-20T02:59:51Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。