論文の概要: U-NetMN and SegNetMN: Modified U-Net and SegNet models for bimodal SAR image segmentation
- arxiv url: http://arxiv.org/abs/2506.05444v1
- Date: Thu, 05 Jun 2025 13:32:38 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-06-09 17:28:43.168099
- Title: U-NetMN and SegNetMN: Modified U-Net and SegNet models for bimodal SAR image segmentation
- Title(参考訳): U-NetMNとSegNetMN:バイモーダルSAR画像分割のための修正U-NetとSegNetモデル
- Authors: Marwane Kzadri, Franco Alberto Cardillo, Nanée Chahinian, Carole Delenne, Renaud Hostache, Jamal Riffi,
- Abstract要約: モード正規化が広く使われている2つのセマンティックセグメンテーションモデル(U-NetとSegNet)に与える影響を評価する。
実験の結果、モード正規化は収束を著しく加速することが示された。
クロスバリデーションの結果, 正規化モデルでは, 異なるゾーンで安定性が向上することが示唆された。
- 参考スコア(独自算出の注目度): 1.802134007653808
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Segmenting Synthetic Aperture Radar (SAR) images is crucial for many remote sensing applications, particularly water body detection. However, deep learning-based segmentation models often face challenges related to convergence speed and stability, mainly due to the complex statistical distribution of this type of data. In this study, we evaluate the impact of mode normalization on two widely used semantic segmentation models, U-Net and SegNet. Specifically, we integrate mode normalization, to reduce convergence time while maintaining the performance of the baseline models. Experimental results demonstrate that mode normalization significantly accelerates convergence. Furthermore, cross-validation results indicate that normalized models exhibit increased stability in different zones. These findings highlight the effectiveness of normalization in improving computational efficiency and generalization in SAR image segmentation.
- Abstract(参考訳): SAR(Segmenting Synthetic Aperture Radar)画像は、多くのリモートセンシングアプリケーション、特に水域検出に不可欠である。
しかし、深層学習に基づくセグメンテーションモデルは、主にこの種のデータの複雑な統計分布のために、収束速度と安定性に関する課題に直面していることが多い。
本研究では,モード正規化が2つの広く使用されているセマンティックセグメンテーションモデル,U-NetとSegNetに与える影響を評価する。
具体的には,モード正規化を統合し,ベースラインモデルの性能を維持しながら収束時間を短縮する。
実験の結果、モード正規化は収束を著しく加速することが示された。
さらに、クロスバリデーションの結果は、正規化モデルが異なるゾーンで安定性が向上することを示している。
これらの結果は、SAR画像分割における計算効率の向上と一般化における正規化の有効性を浮き彫りにした。
関連論文リスト
- Joint Graph Convolution and Sequential Modeling for Scalable Network Traffic Estimation [11.751952500567388]
本研究では,複雑なトポロジカル環境におけるネットワークトラフィック予測の課題に焦点を当てた。
グラフ・コンテンポラル・ネットワーク(GCN)とGRU(Gated Recurrent Units)モデリング・アプローチを導入している。
提案モデルの有効性は,実世界のアビリーンネットワークトラフィックデータセットに関する総合的な実験を通じて検証される。
論文 参考訳(メタデータ) (2025-05-12T15:38:19Z) - RD-UIE: Relation-Driven State Space Modeling for Underwater Image Enhancement [59.364418120895]
水中画像強調(UIE)は、海洋視覚応用のための重要な前処理ステップである。
実効UIE(RD-UIE)のための新しい関係駆動型マンバフレームワークを開発した。
水中強化ベンチマークの実験では、RD-UIEは最先端のアプローチであるWMambaよりも優れていた。
論文 参考訳(メタデータ) (2025-05-02T12:21:44Z) - Rotated Multi-Scale Interaction Network for Referring Remote Sensing Image Segmentation [63.15257949821558]
Referring Remote Sensing Image (RRSIS)は、コンピュータビジョンと自然言語処理を組み合わせた新しい課題である。
従来の参照画像(RIS)アプローチは、空中画像に見られる複雑な空間スケールと向きによって妨げられている。
本稿ではRMSIN(Rotated Multi-Scale Interaction Network)を紹介する。
論文 参考訳(メタデータ) (2023-12-19T08:14:14Z) - ARHNet: Adaptive Region Harmonization for Lesion-aware Augmentation to
Improve Segmentation Performance [61.04246102067351]
本研究では,合成画像をよりリアルに見せるために,前景調和フレームワーク(ARHNet)を提案する。
実画像と合成画像を用いたセグメンテーション性能の向上に本手法の有効性を実証する。
論文 参考訳(メタデータ) (2023-07-02T10:39:29Z) - RSI-Net: Two-Stream Deep Neural Network Integrating GCN and Atrous CNN
for Semantic Segmentation of High-resolution Remote Sensing Images [3.468780866037609]
本稿では,リモートセンシング画像(RSI-Net)のセマンティックセグメンテーションのための2ストリームディープニューラルネットワークを提案する。
実験はVayhingen、Potsdam、Gaofen RSIデータセットで実施されている。
その結果,6つの最先端RSIセマンティックセグメンテーション法と比較して,総合的精度,F1スコア,カッパ係数において,RSI-Netの優れた性能を示した。
論文 参考訳(メタデータ) (2021-09-19T15:57:20Z) - Channelized Axial Attention for Semantic Segmentation [70.14921019774793]
チャネルアキシャルアテンション(CAA)を提案し、チャネルアテンションと軸アテンションをシームレスに統合し、計算複雑性を低減します。
私たちのCAAは、DANetのような他の注意モデルに比べて計算リソースをはるかに少なくするだけでなく、すべての検証済みデータセット上で最先端のResNet-101ベースのセグメンテーションモデルよりも優れています。
論文 参考訳(メタデータ) (2021-01-19T03:08:03Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。