論文の概要: Bi^2MAC: Bimodal Bi-Adaptive Mask-Aware Convolution for Remote Sensing Pansharpening
- arxiv url: http://arxiv.org/abs/2512.08331v1
- Date: Tue, 09 Dec 2025 08:00:43 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-12-10 22:28:07.869061
- Title: Bi^2MAC: Bimodal Bi-Adaptive Mask-Aware Convolution for Remote Sensing Pansharpening
- Title(参考訳): Bi^2MAC:リモートセンシング用バイモーダルバイアダプティブマスク認識コンボリューション
- Authors: Xianghong Xiao, Zeyu Xia, Zhou Fei, Jinliang Xiao, Haorui Chen, Liangjian Deng,
- Abstract要約: Bimodal Bi-Adaptive Mask-Aware Convolution (Bi2MAC)を紹介する。
計算資源をインテリジェントに割り当てながら、異なるタイプの領域の情報を利用する。
Bi2MACは、トレーニング時間とパラメータ数を大幅に減らしながら、最先端(SOTA)性能を達成する。
- 参考スコア(独自算出の注目度): 18.789955600742168
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Pansharpening aims to fuse a high-resolution panchromatic (PAN) image with a low-resolution multispectral (LRMS) image to generate a high-resolution multispectral image (HRMS). Conventional deep learning-based methods are inherently limited in their ability to adapt to regional heterogeneity within feature representations. Although various adaptive convolution methods have been proposed to address this limitation, they often suffer from excessive computational costs and a limited ability to capture heterogeneous regions in remote sensing images effectively. To overcome these challenges, we propose Bimodal Bi-Adaptive Mask-Aware Convolution (Bi^2MAC), which effectively exploits information from different types of regions while intelligently allocating computational resources. Specifically, we design a lightweight module to generate both soft and hard masks, which are used to modulate the input features preliminarily and to guide different types of regions into separate processing branches, respectively. Redundant features are directed to a compact branch for low-cost global processing. In contrast, heterogeneous features are routed to a focused branch that invests more computational resources for fine-grained modeling. Extensive experiments on multiple benchmark datasets demonstrate that Bi^2MAC achieves state-of-the-art (SOTA) performance while requiring substantially lower training time and parameter counts, and the minimal computational cost among adaptive convolution models.
- Abstract(参考訳): Pansharpeningは、高分解能パノクロマティック画像(PAN)と低分解能マルチスペクトル画像(LRMS)を融合して高分解能マルチスペクトル画像(HRMS)を生成することを目的としている。
従来のディープラーニングに基づく手法は、特徴表現内の局所的不均一性に適応する能力に本質的に制限されている。
この制限に対処するために様々な適応的畳み込み法が提案されているが、しばしば過度な計算コストとリモートセンシング画像の不均一領域を効果的に捕捉する能力に悩まされる。
これらの課題を克服するために,Bimodal Bi-Adaptive Mask-Aware Convolution (Bi^2MAC)を提案する。
具体的には,ソフトマスクとハードマスクの両方を生成する軽量モジュールを設計し,入力特徴を予め調整し,異なるタイプの領域をそれぞれ別々の処理ブランチに誘導する。
冗長機能は、低コストなグローバル処理のためのコンパクトブランチに向けられている。
対照的に、ヘテロジニアスな特徴は、きめ細かいモデリングのためにより多くの計算資源を投資する集中ブランチにルーティングされる。
複数のベンチマークデータセットに対する大規模な実験により、Bi^2MACは、トレーニング時間とパラメータ数を大幅に削減し、適応畳み込みモデルにおいて最小の計算コストを必要としながら、最先端(SOTA)性能を達成することが示された。
関連論文リスト
- Spatial-Spectral Binarized Neural Network for Panchromatic and Multi-spectral Images Fusion [25.15016853820625]
ディープラーニングモデルは優れたパフォーマンスを達成したが、しばしば計算の複雑さが伴う。
本稿では,2次ニューラルネットワーク(BNN)をパンシャーピングに適用する可能性について検討する。
一連のS2B-Convは、S2BNetと呼ばれるパンシャーピングのための新しいバイナリネットワークを形成する。
論文 参考訳(メタデータ) (2025-09-27T14:10:51Z) - QDM: Quadtree-Based Region-Adaptive Sparse Diffusion Models for Efficient Image Super-Resolution [54.67891514843853]
領域適応拡散フレームワークであるQuadtree Diffusion Model (QDM)を提案する。
低品質入力から派生したクワッドツリーで拡散を誘導することにより、QDMは葉ノードで表現されるキー領域を特定する。
実験は、QDMが様々な画像タイプ、特に医用画像における高分解能SRタスクにおいて有効であることを示す。
論文 参考訳(メタデータ) (2025-03-15T06:50:30Z) - Feature Alignment with Equivariant Convolutions for Burst Image Super-Resolution [52.55429225242423]
本稿では,同変畳み込みに基づくアライメントを特徴とするBurst Image Super-Resolution (BISR) のための新しいフレームワークを提案する。
これにより、アライメント変換は画像領域の明示的な監督を通じて学習でき、特徴領域に容易に適用できる。
BISRベンチマークの実験は、定量的メトリクスと視覚的品質の両方において、我々のアプローチの優れた性能を示している。
論文 参考訳(メタデータ) (2025-03-11T11:13:10Z) - Image Forgery Localization via Guided Noise and Multi-Scale Feature Aggregation [13.610095493539397]
IFLのためのガイド付きマルチスケール機能集約ネットワークを提案する。
異なる種類の偽音下でのノイズ特徴を学習するために,有効なノイズ抽出モジュールを開発する。
そして、動的畳み込みを用いて複数のスケールでRGBと雑音機能を適応的に集約する特徴集約モジュール(FAM)を設計する。
最後に,Atrous Residual Pyramid Module (ARPM)を提案する。
論文 参考訳(メタデータ) (2024-11-17T11:50:09Z) - Unsupervised Modality Adaptation with Text-to-Image Diffusion Models for Semantic Segmentation [54.96563068182733]
セグメンテーションタスクのためのテキスト・ツー・イメージ拡散モデル(MADM)を用いたモダリティ適応を提案する。
MADMは、広範囲な画像とテキストのペアで事前訓練されたテキストと画像の拡散モデルを使用して、モデルの相互モダリティ能力を向上する。
我々は,MADMが画像から深度,赤外線,イベントのモダリティといった様々なモダリティタスクにまたがって,最先端の適応性能を実現することを示す。
論文 参考訳(メタデータ) (2024-10-29T03:49:40Z) - MFCLIP: Multi-modal Fine-grained CLIP for Generalizable Diffusion Face Forgery Detection [64.29452783056253]
フォトリアリスティック・フェイスジェネレーション手法の急速な発展は、社会やアカデミックにおいて大きな関心を集めている。
既存のアプローチは主に画像モダリティを用いて顔の偽造パターンをキャプチャするが、きめ細かいノイズやテキストのような他のモダリティは完全には探索されていない。
そこで本研究では,画像ノイズの多点にわたる包括的かつきめ細かなフォージェリートレースをマイニングする,MFCLIP(MF-modal Fine-fine-fine-fine-fine-fine CLIP)モデルを提案する。
論文 参考訳(メタデータ) (2024-09-15T13:08:59Z) - Dual-scale Enhanced and Cross-generative Consistency Learning for Semi-supervised Medical Image Segmentation [49.57907601086494]
医用画像のセグメンテーションはコンピュータ支援診断において重要な役割を担っている。
半教師型医用画像(DEC-Seg)のための新しいDual-scale Enhanced and Cross-generative consistency learning frameworkを提案する。
論文 参考訳(メタデータ) (2023-12-26T12:56:31Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。