論文の概要: Deep feature selection-and-fusion for RGB-D semantic segmentation
- arxiv url: http://arxiv.org/abs/2105.04102v1
- Date: Mon, 10 May 2021 04:02:32 GMT
- ステータス: 処理完了
- システム内更新日: 2021-05-11 14:54:23.114521
- Title: Deep feature selection-and-fusion for RGB-D semantic segmentation
- Title(参考訳): rgb-dセマンティクスセグメンテーションのための深層特徴選択・融合
- Authors: Yuejiao Su, Yuan Yuan, Zhiyu Jiang
- Abstract要約: 本研究は,fsfnet (unified and efficient feature selection and-fusion network) を提案する。
FSFNetは、マルチモダリティ情報の明示的な融合に使用される対称クロスモダリティ残留融合モジュールを含む。
最新の手法と比較すると,提案モデルが2つの公開データセットで競合性能を発揮できることを実験的に評価した。
- 参考スコア(独自算出の注目度): 8.831857715361624
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Scene depth information can help visual information for more accurate
semantic segmentation. However, how to effectively integrate multi-modality
information into representative features is still an open problem. Most of the
existing work uses DCNNs to implicitly fuse multi-modality information. But as
the network deepens, some critical distinguishing features may be lost, which
reduces the segmentation performance. This work proposes a unified and
efficient feature selectionand-fusion network (FSFNet), which contains a
symmetric cross-modality residual fusion module used for explicit fusion of
multi-modality information. Besides, the network includes a detailed feature
propagation module, which is used to maintain low-level detailed information
during the forward process of the network. Compared with the state-of-the-art
methods, experimental evaluations demonstrate that the proposed model achieves
competitive performance on two public datasets.
- Abstract(参考訳): シーン深度情報は、より正確なセマンティックセグメンテーションのための視覚情報に役立つ。
しかし、マルチモダリティ情報を代表的機能に効果的に統合する方法はまだ未解決の問題である。
既存の作業の多くはDCNNを使って暗黙的に多モード情報を融合している。
しかしネットワークが深まるにつれて、いくつかの重要な識別機能が失われ、セグメンテーション性能が低下する可能性がある。
本稿では,マルチモダリティ情報の明示的な融合に用いられる対称クロスモダリティ残差融合モジュールを含む,統一的で効率的な特徴選択・融合ネットワーク(fsfnet)を提案する。
さらにネットワークには,ネットワークの前処理中に低レベルの詳細な情報を維持するために使用される,詳細な機能伝搬モジュールが含まれている。
現状の手法と比較して,提案モデルが2つの公開データセット上で競合性能を達成することを示す実験的評価を行った。
関連論文リスト
- FANet: Feature Amplification Network for Semantic Segmentation in Cluttered Background [9.970265640589966]
既存のディープラーニングアプローチでは、複雑なシナリオに存在するセマンティックセグメンテーションにおいて重要なセマンティックな方法が残されている。
マルチステージ機能拡張モジュールを用いて意味情報を組み込んだバックボーンネットワークとして機能増幅ネットワーク(FANet)を提案する。
実験の結果,既存の手法と比較して最先端の性能が示された。
論文 参考訳(メタデータ) (2024-07-12T15:57:52Z) - MCFNet: Multi-scale Covariance Feature Fusion Network for Real-time
Semantic Segmentation [6.0118706234809975]
我々は,Multi-scale Covariance Feature Fusion Network (MCFNet)と呼ばれるバイラテラルネットワーク(BiseNet)に基づく新しいアーキテクチャを提案する。
具体的には、新しい機能改善モジュールと新しい機能融合モジュールを導入する。
提案したCityscapes,CamVidデータセットのモデルを評価し,最先端の手法と比較した。
論文 参考訳(メタデータ) (2023-12-12T12:20:27Z) - Mutual-Guided Dynamic Network for Image Fusion [51.615598671899335]
画像融合のための新しい相互誘導動的ネットワーク(MGDN)を提案する。
5つのベンチマークデータセットによる実験結果から,提案手法は4つの画像融合タスクにおいて既存手法よりも優れていることが示された。
論文 参考訳(メタデータ) (2023-08-24T03:50:37Z) - Object Segmentation by Mining Cross-Modal Semantics [68.88086621181628]
マルチモーダル特徴の融合と復号を導くために,クロスモーダル・セマンティックスをマイニングする手法を提案する。
具体的には,(1)全周減衰核融合(AF),(2)粗大デコーダ(CFD),(3)多層自己超越からなる新しいネットワークXMSNetを提案する。
論文 参考訳(メタデータ) (2023-05-17T14:30:11Z) - Feature Aggregation and Propagation Network for Camouflaged Object
Detection [42.33180748293329]
カモフラージュされたオブジェクト検出(COD)は、環境に埋め込まれたカモフラージュされたオブジェクトを検出し、分離することを目的としている。
いくつかのCOD法が開発されているが, 前景オブジェクトと背景環境との固有の類似性により, 依然として不満足な性能に悩まされている。
カモフラージュされた物体検出のための新しい特徴集約・伝播ネットワーク(FAP-Net)を提案する。
論文 参考訳(メタデータ) (2022-12-02T05:54:28Z) - PSNet: Parallel Symmetric Network for Video Salient Object Detection [85.94443548452729]
我々は,PSNet という名前のアップ・ダウン・パラレル対称性を持つ VSOD ネットワークを提案する。
2つの並列ブランチが、ビデオの完全サリエンシ復号化を実現するために設定されている。
論文 参考訳(メタデータ) (2022-10-12T04:11:48Z) - Specificity-preserving RGB-D Saliency Detection [103.3722116992476]
本稿では,RGB-Dサリエンシ検出のための特異性保存ネットワーク(SP-Net)を提案する。
2つのモダリティ特化ネットワークと共有学習ネットワークを採用し、個別および共有唾液マップを生成する。
6つのベンチマークデータセットの実験では、SP-Netは他の最先端の手法よりも優れています。
論文 参考訳(メタデータ) (2021-08-18T14:14:22Z) - EPMF: Efficient Perception-aware Multi-sensor Fusion for 3D Semantic Segmentation [62.210091681352914]
自律運転やロボティクスなど,多くのアプリケーションを対象とした3次元セマンティックセマンティックセグメンテーションのためのマルチセンサフュージョンについて検討する。
本研究では,知覚認識型マルチセンサフュージョン(PMF)と呼ばれる協調融合方式について検討する。
本稿では,2つのモードから特徴を分離して抽出する2ストリームネットワークを提案する。
論文 参考訳(メタデータ) (2021-06-21T10:47:26Z) - CSRNet: Cascaded Selective Resolution Network for Real-time Semantic
Segmentation [18.63596070055678]
本稿では,リアルタイムセグメンテーションの性能向上を図るために,光カスケード選択分解ネットワーク(CSRNet)を提案する。
提案するネットワークは,低解像度から高解像度までの特徴情報を統合した3段階セグメンテーションシステムを構築している。
2つのよく知られたデータセットの実験により、提案したCSRNetはリアルタイムセグメンテーションの性能を効果的に向上することを示した。
論文 参考訳(メタデータ) (2021-06-08T14:22:09Z) - Deep Multimodal Fusion by Channel Exchanging [87.40768169300898]
本稿では,異なるモードのサブネットワーク間で動的にチャネルを交換するパラメータフリーマルチモーダル融合フレームワークを提案する。
このような交換プロセスの有効性は、畳み込みフィルタを共有してもBN層をモダリティで分離しておくことで保証される。
論文 参考訳(メタデータ) (2020-11-10T09:53:20Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。