論文の概要: Multiview Manifold Evidential Fusion for PolSAR Image Classification
- arxiv url: http://arxiv.org/abs/2510.11171v1
- Date: Mon, 13 Oct 2025 09:05:51 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-14 18:06:30.283587
- Title: Multiview Manifold Evidential Fusion for PolSAR Image Classification
- Title(参考訳): PolSAR画像分類のためのマルチビューマニフォールド・エビデンシャル・フュージョン
- Authors: Junfei Shi, Haojia Zhang, Haiyan Jin, Junhuai Li, Xiaogang Song, Yuanfan Guo, Haonan Su, Weisi Lin,
- Abstract要約: 我々は,PolSAR多様体学習とエビデンス融合を統合アーキテクチャに統合する新しいフレームワークを提案する。
実世界の3つのPolSARデータセットの実験により、提案手法は、精度、堅牢性、解釈可能性において、既存のアプローチよりも一貫して優れていることが示された。
- 参考スコア(独自算出の注目度): 51.41332458376411
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Polarimetric Synthetic Aperture Radar (PolSAR) covariance matrices and their extracted multi-features - such as scattering angle, entropy, texture, and boundary descriptors - provide complementary and physically interpretable information for image classification. Traditional fusion strategies typically concatenate these features or employ deep learning networks to combine them. However, the covariance matrices and multi-features, as two complementary views, lie on different manifolds with distinct geometric structures. Existing fusion methods also overlook the varying importance of different views and ignore uncertainty, often leading to unreliable predictions. To address these issues, we propose a Multiview Manifold Evidential Fusion (MMEFnet) method to effectively fuse these two views. It gives a new framework to integrate PolSAR manifold learning and evidence fusion into a unified architecture. Specifically, covariance matrices are represented on the Hermitian Positive Definite (HPD) manifold, while multi-features are modeled on the Grassmann manifold. Two different kernel metric learning networks are constructed to learn their manifold representations. Subsequently, a trusted multiview evidence fusion, replacing the conventional softmax classifier, estimates belief mass and quantifies the uncertainty of each view from the learned deep features. Finally, a Dempster-Shafer theory-based fusion strategy combines evidence, enabling a more reliable and interpretable classification. Extensive experiments on three real-world PolSAR datasets demonstrate that the proposed method consistently outperforms existing approaches in accuracy, robustness, and interpretability.
- Abstract(参考訳): PolSAR(Polarimetric Synthetic Aperture Radar)共分散行列とその抽出した多機能 - 散乱角、エントロピー、テクスチャ、境界記述子 - は、画像分類に補完的かつ物理的に解釈可能な情報を提供する。
従来の融合戦略は、これらの特徴を結合するか、あるいはそれらを組み合わせるためにディープラーニングネットワークを使用する。
しかし、共分散行列と多重函数は2つの相補的な見解として、異なる幾何学的構造を持つ異なる多様体上に存在する。
既存の融合法は、異なる視点の様々な重要性を見落とし、不確実性を無視し、しばしば信頼できない予測につながる。
これらの問題に対処するために,これらの2つのビューを効果的に融合するMMEFnet法を提案する。
PolSAR多様体の学習とエビデンスを統合アーキテクチャに統合する新たなフレームワークを提供する。
特に、共分散行列はエルミート正定値(HPD)多様体上で表現され、多重函数はグラスマン多様体上でモデル化される。
2つの異なるカーネルメトリック学習ネットワークを構築し、それらの多様体表現を学習する。
その後、従来のソフトマックス分類器を置き換える信頼されたマルチビューエビデンス融合を行い、信頼質量を推定し、学習された深い特徴から各ビューの不確かさを定量化する。
最後に、デンプスター・シェーファー理論に基づく融合戦略は証拠を組み合わせて、より信頼性が高く解釈可能な分類を可能にする。
実世界の3つのPolSARデータセットに対する大規模な実験は、提案手法が既存の精度、堅牢性、解釈可能性のアプローチを一貫して上回ることを示した。
関連論文リスト
- SMLNet: A SPD Manifold Learning Network for Infrared and Visible Image Fusion [60.18614468818683]
マルチモーダル画像融合のための新しいSPD(対称正定値)多様体学習を提案する。
我々のフレームワークは現在の最先端手法と比較して優れた性能を示す。
論文 参考訳(メタデータ) (2024-11-16T03:09:49Z) - Hierarchical Mutual Distillation for Multi-View Fusion: Learning from All Possible View Combinations [0.053801353100098995]
本稿では,新しいMV-UWMD法を提案する。
MV-UWMDは既存のマルチビュー学習手法と比較して予測精度と一貫性を向上させる。
論文 参考訳(メタデータ) (2024-11-15T09:45:32Z) - A Clustering-guided Contrastive Fusion for Multi-view Representation
Learning [7.630965478083513]
本稿では、ビュー固有表現をビュー共通表現に融合する深層融合ネットワークを提案する。
また、ビュー共通表現とビュー固有表現を一致させる非対称なコントラスト戦略を設計する。
不完全な視点では,提案手法は競合相手よりもノイズ干渉に抵抗する。
論文 参考訳(メタデータ) (2022-12-28T07:21:05Z) - Tensor-based Multi-view Spectral Clustering via Shared Latent Space [14.470859959783995]
MvSC(Multi-view Spectral Clustering)は多様なデータソースによって注目を集めている。
MvSCの新しい手法はRestricted Kernel Machineフレームワークから共有潜在空間を介して提案される。
論文 参考訳(メタデータ) (2022-07-23T17:30:54Z) - Trusted Multi-View Classification with Dynamic Evidential Fusion [73.35990456162745]
信頼型マルチビュー分類(TMC)と呼ばれる新しいマルチビュー分類アルゴリズムを提案する。
TMCは、様々な視点をエビデンスレベルで動的に統合することで、マルチビュー学習のための新しいパラダイムを提供する。
理論的および実験的結果は、精度、堅牢性、信頼性において提案されたモデルの有効性を検証した。
論文 参考訳(メタデータ) (2022-04-25T03:48:49Z) - Learning Deep Multimodal Feature Representation with Asymmetric
Multi-layer Fusion [63.72912507445662]
本稿では,マルチモーダルな特徴を複数の層に融合する,コンパクトで効果的なフレームワークを提案する。
我々は、エンコーダ内のモダリティ固有のバッチ正規化層を単に維持するだけで、共有シングルネットワーク内でマルチモーダル機能を学習できることを検証する。
次に,マルチモーダルな特徴を段階的に活用できる双方向多層融合方式を提案する。
論文 参考訳(メタデータ) (2021-08-11T03:42:13Z) - Trusted Multi-View Classification [76.73585034192894]
本稿では,信頼された多視点分類と呼ばれる新しい多視点分類手法を提案する。
さまざまなビューをエビデンスレベルで動的に統合することで、マルチビュー学習のための新しいパラダイムを提供する。
提案アルゴリズムは,分類信頼性とロバスト性の両方を促進するために,複数のビューを併用する。
論文 参考訳(メタデータ) (2021-02-03T13:30:26Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。