論文の概要: Polarimetric SAR Image Semantic Segmentation with 3D Discrete Wavelet
Transform and Markov Random Field
- arxiv url: http://arxiv.org/abs/2008.11014v1
- Date: Wed, 5 Aug 2020 08:28:18 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-02 18:30:59.356018
- Title: Polarimetric SAR Image Semantic Segmentation with 3D Discrete Wavelet
Transform and Markov Random Field
- Title(参考訳): 3次元離散ウェーブレット変換とマルコフ確率場を用いたポラリメトリックsar画像意味セグメンテーション
- Authors: Haixia Bi, Lin Xu, Xiangyong Cao, Yong Xue, Zongben Xu
- Abstract要約: 本稿では,文脈的PolSAR画像セマンティックセグメンテーション手法を提案する。
3D-DWT手法は,新たに定義したチャネル的に一貫した特徴を入力として,スペックルノイズに頑健な識別的マルチスケール特徴を抽出する。
3D-DWT機能とMRFプリエントを同時に活用することにより、セグメンテーション中にコンテキスト情報が完全に統合され、正確かつスムーズなセグメンテーションが保証される。
- 参考スコア(独自算出の注目度): 32.59900433812833
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Polarimetric synthetic aperture radar (PolSAR) image segmentation is
currently of great importance in image processing for remote sensing
applications. However, it is a challenging task due to two main reasons.
Firstly, the label information is difficult to acquire due to high annotation
costs. Secondly, the speckle effect embedded in the PolSAR imaging process
remarkably degrades the segmentation performance. To address these two issues,
we present a contextual PolSAR image semantic segmentation method in this
paper.With a newly defined channelwise consistent feature set as input, the
three-dimensional discrete wavelet transform (3D-DWT) technique is employed to
extract discriminative multi-scale features that are robust to speckle noise.
Then Markov random field (MRF) is further applied to enforce label smoothness
spatially during segmentation. By simultaneously utilizing 3D-DWT features and
MRF priors for the first time, contextual information is fully integrated
during the segmentation to ensure accurate and smooth segmentation. To
demonstrate the effectiveness of the proposed method, we conduct extensive
experiments on three real benchmark PolSAR image data sets. Experimental
results indicate that the proposed method achieves promising segmentation
accuracy and preferable spatial consistency using a minimal number of labeled
pixels.
- Abstract(参考訳): ポラリメトリック合成開口レーダ(PolSAR)画像セグメンテーションは、現在リモートセンシングアプリケーションにおける画像処理において非常に重要である。
しかし、これは2つの主な理由から難しい課題である。
まず,アノテーションコストが高いためラベル情報を取得するのが困難である。
第2に、PolSAR撮像プロセスに埋め込まれたスペックル効果は、セグメンテーション性能を著しく低下させる。
本稿では,この2つの問題に対処するために,新たに定義されたチャネルワイズ一貫した特徴セットを入力として,3次元離散ウェーブレット変換(3d-dwt)手法を用いて,スペックルノイズにロバストなマルチスケール特徴の識別を行う。
その後、マルコフ確率場(mrf)をさらに適用し、セグメンテーション中に空間的にラベルの滑らかさを強制する。
3D-DWT機能とMRFプリエントを同時に活用することにより、セグメンテーション中にコンテキスト情報が完全に統合され、正確かつスムーズなセグメンテーションが保証される。
提案手法の有効性を示すため、3つの実ベンチマークPolSAR画像データセットに対して広範な実験を行った。
実験結果から,提案手法は最小のラベル付き画素数を用いて,有望なセグメンテーション精度と良好な空間整合性を実現することが示唆された。
関連論文リスト
- Wavelet-based Bi-dimensional Aggregation Network for SAR Image Change Detection [53.842568573251214]
3つのSARデータセットによる実験結果から、我々のWBANetは現代最先端の手法を著しく上回っていることが明らかとなった。
我々のWBANetは、それぞれのデータセットで98.33%、96.65%、96.62%の正確な分類(PCC)を達成している。
論文 参考訳(メタデータ) (2024-07-18T04:36:10Z) - Rotated Multi-Scale Interaction Network for Referring Remote Sensing Image Segmentation [63.15257949821558]
Referring Remote Sensing Image (RRSIS)は、コンピュータビジョンと自然言語処理を組み合わせた新しい課題である。
従来の参照画像(RIS)アプローチは、空中画像に見られる複雑な空間スケールと向きによって妨げられている。
本稿ではRMSIN(Rotated Multi-Scale Interaction Network)を紹介する。
論文 参考訳(メタデータ) (2023-12-19T08:14:14Z) - GP-NeRF: Generalized Perception NeRF for Context-Aware 3D Scene Understanding [101.32590239809113]
Generalized Perception NeRF (GP-NeRF) は、広く使われているセグメンテーションモデルとNeRFを統一されたフレームワークで相互に動作させる新しいパイプラインである。
本稿では,セマンティック蒸留損失(Semantic Distill Loss)とDepth-Guided Semantic Distill Loss(Depth-Guided Semantic Distill Loss)という2つの自己蒸留機構を提案する。
論文 参考訳(メタデータ) (2023-11-20T15:59:41Z) - TFNet: Exploiting Temporal Cues for Fast and Accurate LiDAR Semantic Segmentation [22.827914249161875]
範囲画像に基づくLiDARセマンティックセマンティックセグメンテーション手法であるTFNetを提案する。
従来のスキャンから有用な情報を抽出し,現在のスキャンと統合するために,時間融合層を組み込んだ。
次に、誤り予測を正すために、最大投票に基づく後処理手法を設計する。
論文 参考訳(メタデータ) (2023-09-14T16:48:31Z) - Scene-Generalizable Interactive Segmentation of Radiance Fields [64.37093918762]
我々はSGISRF(Scene-Generalizable Interactive in Radiance Fields)の最初の試みを行う。
そこで本研究では,複数視点の2D画像に対して,対話的なユーザクリック数回しか表示されない,新しい(見えない)シーンの3Dオブジェクトセグメンテーションを実現するSGISRF手法を提案する。
多様なシーンをカバーする2つの実世界の挑戦的ベンチマーク実験は,1) 提案手法の有効性とシーン一般化性を示し,2) シーン固有の最適化を必要とする古典的手法と比較して良好な性能を示した。
論文 参考訳(メタデータ) (2023-08-09T17:55:50Z) - SwIPE: Efficient and Robust Medical Image Segmentation with Implicit Patch Embeddings [12.79344668998054]
正確な局所境界線とグローバルな形状コヒーレンスを実現するために,SwIPE(Segmentation with Implicit Patch Embeddings)を提案する。
その結果,最近の暗黙的アプローチよりもSwIPEは大幅に改善され,パラメータが10倍以上の最先端の離散手法よりも優れていた。
論文 参考訳(メタデータ) (2023-07-23T20:55:11Z) - Super-Resolution Based Patch-Free 3D Image Segmentation with
High-Frequency Guidance [20.86089285980103]
磁気共鳴画像(MRI)やCT(CT)などの医用画像など,近年,高分解能(HR)3D画像が広く利用されている。
論文 参考訳(メタデータ) (2022-10-26T11:46:08Z) - Collaborative Propagation on Multiple Instance Graphs for 3D Instance
Segmentation with Single-point Supervision [63.429704654271475]
本稿では,1つのオブジェクトを1つのポイントでラベル付けするだけでよい,弱教師付き手法RWSegを提案する。
これらの疎いラベルにより、セマンティック情報とインスタンス情報を伝達する2つの分岐を持つ統一的なフレームワークを導入する。
具体的には、異なるインスタンスグラフ間の競合を促進するクロスグラフ競合ランダムウォークス(CRW)アルゴリズムを提案する。
論文 参考訳(メタデータ) (2022-08-10T02:14:39Z) - A distribution-dependent Mumford-Shah model for unsupervised
hyperspectral image segmentation [3.2116198597240846]
本稿では、新しい教師なしハイパースペクトルセグメンテーションフレームワークを提案する。
これは、MNF(Minimum Noise Fraction)変換によって、デノゲーションと次元の低減ステップから始まる。
我々は、高スペクトルデータの課題に対処するために、新しい頑健な分布依存型インジケータ機能を備えたMS関数を実装した。
論文 参考訳(メタデータ) (2022-03-28T19:57:14Z) - Weakly-supervised Learning For Catheter Segmentation in 3D Frustum
Ultrasound [74.22397862400177]
超音波を用いた新しいカテーテルセグメンテーション法を提案する。
提案手法は,1ボリュームあたり0.25秒の効率で最先端の性能を実現した。
論文 参考訳(メタデータ) (2020-10-19T13:56:22Z) - SemanticVoxels: Sequential Fusion for 3D Pedestrian Detection using
LiDAR Point Cloud and Semantic Segmentation [4.350338899049983]
我々は、異なるレベルで融合を適用できるように、PointPaintingの一般化を提案する。
本研究では,セマンティックボクセルが3次元および鳥の視線歩行者検出ベンチマークにおいて,最先端の性能を達成することを示す。
論文 参考訳(メタデータ) (2020-09-25T14:52:32Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。