論文の概要: SDF2Net: Shallow to Deep Feature Fusion Network for PolSAR Image
Classification
- arxiv url: http://arxiv.org/abs/2402.17672v1
- Date: Tue, 27 Feb 2024 16:46:21 GMT
- ステータス: 処理完了
- システム内更新日: 2024-02-28 15:26:15.394050
- Title: SDF2Net: Shallow to Deep Feature Fusion Network for PolSAR Image
Classification
- Title(参考訳): SDF2Net: PolSAR画像分類のための深い特徴融合ネットワーク
- Authors: Mohammed Q. Alkhatib, M. Sami Zitouni, Mina Al-Saad, Nour Aburaed, and
Hussain Al-Ahmad
- Abstract要約: 畳み込みニューラルネットワーク(CNN)は, PolSAR画像の特徴を捉える上で重要な役割を担っている。
本研究では,PolSAR画像分類において,Shallow to Deep Feature Fusion Network (SDF2Net) と呼ばれる複素数値CNNの3分岐融合を提案する。
その結果、提案手法は全体的な精度の向上を示し、AIRSARデータセットは1.3%、0.8%、ESARデータセットは0.5%向上した。
- 参考スコア(独自算出の注目度): 1.2349871196144497
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Polarimetric synthetic aperture radar (PolSAR) images encompass valuable
information that can facilitate extensive land cover interpretation and
generate diverse output products. Extracting meaningful features from PolSAR
data poses challenges distinct from those encountered in optical imagery. Deep
learning (DL) methods offer effective solutions for overcoming these challenges
in PolSAR feature extraction. Convolutional neural networks (CNNs) play a
crucial role in capturing PolSAR image characteristics by leveraging kernel
capabilities to consider local information and the complex-valued nature of
PolSAR data. In this study, a novel three-branch fusion of complex-valued CNN,
named the Shallow to Deep Feature Fusion Network (SDF2Net), is proposed for
PolSAR image classification. To validate the performance of the proposed
method, classification results are compared against multiple state-of-the-art
approaches using the airborne synthetic aperture radar (AIRSAR) datasets of
Flevoland and San Francisco, as well as the ESAR Oberpfaffenhofen dataset. The
results indicate that the proposed approach demonstrates improvements in
overallaccuracy, with a 1.3% and 0.8% enhancement for the AIRSAR datasets and a
0.5% improvement for the ESAR dataset. Analyses conducted on the Flevoland data
underscore the effectiveness of the SDF2Net model, revealing a promising
overall accuracy of 96.01% even with only a 1% sampling ratio.
- Abstract(参考訳): ポラリメトリック合成開口レーダ(PolSAR)画像は、広い土地被覆の解釈を促進し、多様な出力生成物を生成する貴重な情報を含んでいる。
PolSARデータから有意義な特徴を抽出することは、光学画像で遭遇したものと異なる課題を引き起こす。
ディープラーニング(DL)手法は,これらの課題を克服するための効果的なソリューションを提供する。
畳み込みニューラルネットワーク(CNN)は、カーネル機能を活用してローカル情報とPolSARデータの複雑な値の性質を考慮し、PolSAR画像の特徴を捉える上で重要な役割を果たす。
本研究では,PolSAR画像分類において,Shallow to Deep Feature Fusion Network (SDF2Net) と呼ばれる複素数値CNNの3分岐融合を提案する。
提案手法の性能を評価するため,Flevoland と San Francisco の空中合成開口レーダ (AIRSAR) データセットと ESAR Oberpfaffenhofen データセットを用いて,複数の最先端手法の分類結果を比較した。
その結果、提案手法は全体的な精度の向上を示し、AIRSARデータセットは1.3%、0.8%、ESARデータセットは0.5%向上した。
Flevolandのデータによる分析は、SDF2Netモデルの有効性を裏付け、1%のサンプリング比でも96.01%の有望な総合精度を示した。
関連論文リスト
- Heterogeneous Network Based Contrastive Learning Method for PolSAR Land Cover Classification [18.37842655634498]
SL(Supervised Learning)は、高性能を実現するために大量のラベル付きPolSARデータを必要とする。
本稿では,異種ネットワークに基づくコントラスト学習法(HCLNet)を提案する。
ラベルなしのPolSARデータから高レベルな表現を学習し、マルチ機能やスーパーピクセルに応じて数ショットの分類を行う。
論文 参考訳(メタデータ) (2024-03-29T01:05:23Z) - SARDet-100K: Towards Open-Source Benchmark and ToolKit for Large-Scale
SAR Object Detection [83.21028626585986]
我々は,大規模SARオブジェクト検出のための新しいベンチマークデータセットとオープンソース手法を構築した。
私たちのデータセットであるSARDet-100Kは、10の既存のSAR検出データセットの厳格な調査、収集、標準化の結果です。
私たちの知る限りでは、SARDet-100KはCOCOレベルの大規模マルチクラスSARオブジェクト検出データセットとしては初めてのものです。
論文 参考訳(メタデータ) (2024-03-11T09:20:40Z) - Innovative Horizons in Aerial Imagery: LSKNet Meets DiffusionDet for
Advanced Object Detection [55.2480439325792]
本稿では,LSKNetのバックボーンをDiffusionDetヘッドに統合したオブジェクト検出モデルの詳細な評価を行う。
提案手法は平均精度(MAP)を約45.7%向上させる。
この進歩は、提案された修正の有効性を強調し、航空画像解析の新しいベンチマークを設定する。
論文 参考訳(メタデータ) (2023-11-21T19:49:13Z) - Soft Random Sampling: A Theoretical and Empirical Analysis [59.719035355483875]
ソフトランダムサンプリング(SRS)は、大量のデータを扱う際に、効率的なディープニューラルネットワークに対して単純だが効果的なアプローチである。
それは、各エポックに設定された各データセットから、ランダムに置換された均一な速度を選択する。
実世界の産業規模で重要な競争力を持つ、強力で競争力のある戦略であることが示されている。
論文 参考訳(メタデータ) (2023-11-21T17:03:21Z) - Leveraging Neural Radiance Fields for Uncertainty-Aware Visual
Localization [56.95046107046027]
我々は,Neural Radiance Fields (NeRF) を用いてシーン座標回帰のためのトレーニングサンプルを生成することを提案する。
レンダリングにおけるNeRFの効率にもかかわらず、レンダリングされたデータの多くはアーティファクトによって汚染されるか、最小限の情報ゲインしか含まない。
論文 参考訳(メタデータ) (2023-10-10T20:11:13Z) - SAR-NeRF: Neural Radiance Fields for Synthetic Aperture Radar Multi-View
Representation [7.907504142396784]
本研究では、SARイメージング機構とニューラルネットワークを組み合わせることで、SAR画像生成のための新しいNeRFモデルを提案する。
SAR-NeRFは、ボクセルの減衰係数と散乱強度の分布を学習するために構築される。
その結果,SAR-NeRFオーグメンテーションデータセットは,数ショットの学習設定でSARターゲット分類性能を大幅に向上できることがわかった。
論文 参考訳(メタデータ) (2023-07-11T07:37:56Z) - SAR-ShipNet: SAR-Ship Detection Neural Network via Bidirectional
Coordinate Attention and Multi-resolution Feature Fusion [7.323279438948967]
本稿では,ニューラルネットワークによる合成開口レーダ(SAR)画像から,事実上有意義な船舶検出問題について検討する。
本稿では,CentralNetに基づく双方向協調注意(BCA)とMRF(Multi- resolution Feature Fusion)を新たに開発したSAR-ShipNet(略してSAR-ShipNet)を提案する。
パブリックなSAR-Shipデータセットの実験結果から,SAR-ShipNetは速度と精度の両面で競争上の優位性を達成していることがわかった。
論文 参考訳(メタデータ) (2022-03-29T12:27:04Z) - Context-Preserving Instance-Level Augmentation and Deformable
Convolution Networks for SAR Ship Detection [50.53262868498824]
ランダムな方向と部分的な情報損失によるSAR画像のターゲット形状の変形は、SAR船の検出において必須の課題である。
ターゲット内の部分的な情報損失に頑健なディープネットワークをトレーニングするためのデータ拡張手法を提案する。
論文 参考訳(メタデータ) (2022-02-14T07:01:01Z) - Fully Polarimetric SAR and Single-Polarization SAR Image Fusion Network [8.227845719405051]
完全偏光合成開口レーダ(PolSAR)と単偏光合成開口レーダSAR(SinSAR)画像融合ネットワークを提案する。
偏光分解と偏光シグネチャの実験は、偏光情報がよく維持されていることを示している。
論文 参考訳(メタデータ) (2021-07-18T03:51:04Z) - The QXS-SAROPT Dataset for Deep Learning in SAR-Optical Data Fusion [14.45289690639374]
QXS-SAROPTデータセットを公開し、SAR-オプティカルデータ融合におけるディープラーニング研究を促進します。
光学画像からのクロスモーダル情報によって強化されたSAR光画像マッチングとSAR船舶検出の2つの代表的な用途の例を示す。
論文 参考訳(メタデータ) (2021-03-15T10:22:46Z) - Lightweight Single-Image Super-Resolution Network with Attentive
Auxiliary Feature Learning [73.75457731689858]
本稿では,SISR の注意補助機能 (A$2$F) に基づく計算効率が高く正確なネットワークを構築した。
大規模データセットを用いた実験結果から,提案手法の有効性が示された。
論文 参考訳(メタデータ) (2020-11-13T06:01:46Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。