論文の概要: RAPNet: A Receptive-Field Adaptive Convolutional Neural Network for Pansharpening
- arxiv url: http://arxiv.org/abs/2507.10461v2
- Date: Mon, 11 Aug 2025 10:17:28 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-08-12 16:55:53.563409
- Title: RAPNet: A Receptive-Field Adaptive Convolutional Neural Network for Pansharpening
- Title(参考訳): RAPNet: パンシャーピングのための受容場適応畳み込みニューラルネットワーク
- Authors: Tao Tang, Chengxu Yang,
- Abstract要約: 本稿では,コンテンツ適応型畳み込みを利用した新しいアーキテクチャであるRAPNetを紹介する。
RAPNetはReceptive-field Adaptive Pansharpening Convolution (RAPConv)を採用している。
ネットワークには Pansharpening Dynamic Feature Fusion (PAN-DFF) モジュールが組み込まれており、空間的詳細化とスペクトルの忠実度を最適にバランスさせるためのアテンション機構が組み込まれている。
- 参考スコア(独自算出の注目度): 2.746409982853943
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Pansharpening refers to the process of integrating a high resolution panchromatic (PAN) image with a lower resolution multispectral (MS) image to generate a fused product, which is pivotal in remote sensing. Despite the effectiveness of CNNs in addressing this challenge, they are inherently constrained by the uniform application of convolutional kernels across all spatial positions, overlooking local content variations. To overcome this issue, we introduce RAPNet, a new architecture that leverages content-adaptive convolution. At its core, RAPNet employs the Receptive-field Adaptive Pansharpening Convolution (RAPConv), designed to produce spatially adaptive kernels responsive to local feature context, thereby enhancing the precision of spatial detail extraction. Additionally, the network integrates the Pansharpening Dynamic Feature Fusion (PAN-DFF) module, which incorporates an attention mechanism to achieve an optimal balance between spatial detail enhancement and spectral fidelity. Comprehensive evaluations on publicly available datasets confirm that RAPNet delivers superior performance compared to existing approaches, as demonstrated by both quantitative metrics and qualitative assessments. Ablation analyses further substantiate the effectiveness of the proposed adaptive components.
- Abstract(参考訳): パンシャルペニング(英: Pansharpening)とは、高解像度のパンクロマチック(PAN)画像と低解像度のマルチスペクトル(MS)画像を統合することで、リモートセンシングにおいて重要な融合生成物を生成する過程を指す。
この課題に対処するCNNの有効性にもかかわらず、局所的な内容のバリエーションを見越して、すべての空間的位置にわたる畳み込みカーネルの均一な適用によって、本質的に制限されている。
この問題を解決するために,コンテンツ適応型畳み込みを利用した新しいアーキテクチャであるRAPNetを導入する。
RAPNetのコアとなるのはReceptive-field Adaptive Pansharpening Convolution (RAPConv) で、局所的な特徴コンテキストに応答する空間適応型カーネルを生成し、空間詳細抽出の精度を高める。
さらに、このネットワークは Pansharpening Dynamic Feature Fusion (PAN-DFF) モジュールを統合しており、これは空間的詳細化とスペクトルの忠実さの最適なバランスを達成するための注意機構を組み込んでいる。
公開されているデータセットに関する総合的な評価では、RAPNetは、定量的メトリクスと定性的な評価の両方で示されるように、既存のアプローチよりも優れたパフォーマンスを提供することを確認した。
アブレーション解析は、提案した適応成分の有効性をさらに裏付ける。
関連論文リスト
- Residual Prior-driven Frequency-aware Network for Image Fusion [6.90874640835234]
画像融合は、高品質な融合画像を生成するために、モダリティにまたがる相補的な情報を統合することを目的としている。
本稿ではRPFNetと呼ばれる残差優先周波数対応ネットワークを提案する。
論文 参考訳(メタデータ) (2025-07-09T10:48:00Z) - A Global-Local Cross-Attention Network for Ultra-high Resolution Remote Sensing Image Semantic Segmentation [1.833928124984226]
GLCANetはUHRリモートセンシングのための軽量セグメンテーションフレームワークである。
セルフアテンションメカニズムは、長距離依存関係を強化し、グローバル機能を強化し、セマンティック一貫性を改善するためにローカル詳細を保存する。
マスク付きクロスアテンション機構は、グローバルローカルな特徴を適応的に融合させ、グローバルコンテキストを活用しながら細かな詳細を選択的に強化し、セグメンテーション精度を向上させる。
論文 参考訳(メタデータ) (2025-06-24T08:20:08Z) - SAIP-Net: Enhancing Remote Sensing Image Segmentation via Spectral Adaptive Information Propagation [12.735064111733696]
本稿では,新しい周波数対応セグメンテーションフレームワークであるSAIP-Netを紹介する。
SAIP-Netは適応周波数フィルタリングとマルチスケールの受容場拡張を採用している。
実験では、最先端の手法よりも大幅に性能が向上した。
論文 参考訳(メタデータ) (2025-04-23T09:43:58Z) - Optimal Transport Adapter Tuning for Bridging Modality Gaps in Few-Shot Remote Sensing Scene Classification [80.83325513157637]
Few-Shot Remote Sensing Scene Classification (FS-RSSC)は,限られたラベル付きサンプルを用いたリモートセンシング画像の分類の課題を示す。
理想的なプラトン表現空間を構築することを目的とした,OTAT(Optimal Transport Adapter Tuning)フレームワークを提案する。
論文 参考訳(メタデータ) (2025-03-19T07:04:24Z) - Double-Shot 3D Shape Measurement with a Dual-Branch Network for Structured Light Projection Profilometry [14.749887303860717]
我々は、異なる構造光(SL)変調を処理するために、デュアルブランチ畳み込みニューラルネットワーク(CNN)-トランスフォーマーネットワーク(PDCNet)を提案する。
PDCNet内では、Transformerブランチを使用してフリンジイメージのグローバルな認識をキャプチャし、CNNブランチはスペックルイメージのローカル詳細を収集するように設計されている。
提案手法は, 自己生成データセット上で高精度な結果が得られる一方で, フランジオーダーの曖昧さを低減できる。
論文 参考訳(メタデータ) (2024-07-19T10:49:26Z) - ELGC-Net: Efficient Local-Global Context Aggregation for Remote Sensing Change Detection [65.59969454655996]
本稿では,変化領域を正確に推定するために,リッチな文脈情報を利用する効率的な変化検出フレームワークELGC-Netを提案する。
提案するELGC-Netは、リモートセンシング変更検出ベンチマークにおいて、最先端の性能を新たに設定する。
また,ELGC-Net-LWも導入した。
論文 参考訳(メタデータ) (2024-03-26T17:46:25Z) - Hybrid Convolutional and Attention Network for Hyperspectral Image Denoising [54.110544509099526]
ハイパースペクトル画像(HSI)は、ハイパースペクトルデータの効果的な解析と解釈に重要である。
ハイブリット・コンボリューション・アテンション・ネットワーク(HCANet)を提案する。
主流HSIデータセットに対する実験結果は,提案したHCANetの合理性と有効性を示している。
論文 参考訳(メタデータ) (2024-03-15T07:18:43Z) - Rotated Multi-Scale Interaction Network for Referring Remote Sensing Image Segmentation [63.15257949821558]
Referring Remote Sensing Image (RRSIS)は、コンピュータビジョンと自然言語処理を組み合わせた新しい課題である。
従来の参照画像(RIS)アプローチは、空中画像に見られる複雑な空間スケールと向きによって妨げられている。
本稿ではRMSIN(Rotated Multi-Scale Interaction Network)を紹介する。
論文 参考訳(メタデータ) (2023-12-19T08:14:14Z) - Cross-Spatial Pixel Integration and Cross-Stage Feature Fusion Based
Transformer Network for Remote Sensing Image Super-Resolution [13.894645293832044]
変換器を用いたモデルでは、リモートセンシング画像超解像(RSISR)の競合性能が示されている。
本稿では,RSISRのための新しいトランスアーキテクチャであるCross-Spatial Pixel IntegrationとCross-Stage Feature Fusion Based Transformer Network (SPIFFNet)を提案する。
提案手法は,画像全体のグローバル認知と理解を効果的に促進し,機能統合の効率化を図っている。
論文 参考訳(メタデータ) (2023-07-06T13:19:06Z) - Cross-receptive Focused Inference Network for Lightweight Image
Super-Resolution [64.25751738088015]
トランスフォーマーに基づく手法は、単一画像超解像(SISR)タスクにおいて顕著な性能を示した。
動的に特徴を抽出するために文脈情報を組み込む必要がある変換器は無視される。
我々は,CNNとTransformerを混合したCTブロックのカスケードで構成される,軽量なクロスレセプティブ・フォーカスド・推論・ネットワーク(CFIN)を提案する。
論文 参考訳(メタデータ) (2022-07-06T16:32:29Z) - RSI-Net: Two-Stream Deep Neural Network Integrating GCN and Atrous CNN
for Semantic Segmentation of High-resolution Remote Sensing Images [3.468780866037609]
本稿では,リモートセンシング画像(RSI-Net)のセマンティックセグメンテーションのための2ストリームディープニューラルネットワークを提案する。
実験はVayhingen、Potsdam、Gaofen RSIデータセットで実施されている。
その結果,6つの最先端RSIセマンティックセグメンテーション法と比較して,総合的精度,F1スコア,カッパ係数において,RSI-Netの優れた性能を示した。
論文 参考訳(メタデータ) (2021-09-19T15:57:20Z) - Deep Adaptive Inference Networks for Single Image Super-Resolution [72.7304455761067]
シングルイメージ超解像(SISR)は、ディープ畳み込みニューラルネットワーク(CNN)の展開により、近年大きく進歩している。
本稿では,深部SISR(AdaDSR)の適応型推論ネットワークを活用することで,この問題に対処する。
我々のAdaDSRは、SISRモデルをバックボーンとし、画像の特徴とリソース制約を入力として取り、ローカルネットワーク深さのマップを予測する軽量アダプタモジュールを備える。
論文 参考訳(メタデータ) (2020-04-08T10:08:20Z) - Resolution Adaptive Networks for Efficient Inference [53.04907454606711]
本稿では,低分解能表現が「容易」な入力を分類するのに十分である,という直感に触発された新しいレゾリューション適応ネットワーク(RANet)を提案する。
RANetでは、入力画像はまず、低解像度表現を効率的に抽出する軽量サブネットワークにルーティングされる。
ネットワーク内の高解像度パスは、"ハード"サンプルを認識する能力を維持している。
論文 参考訳(メタデータ) (2020-03-16T16:54:36Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。