論文の概要: Adaptive-Mask Fusion Network for Segmentation of Drivable Road and
Negative Obstacle With Untrustworthy Features
- arxiv url: http://arxiv.org/abs/2304.13979v1
- Date: Thu, 27 Apr 2023 07:00:45 GMT
- ステータス: 処理完了
- システム内更新日: 2023-04-28 14:16:16.883547
- Title: Adaptive-Mask Fusion Network for Segmentation of Drivable Road and
Negative Obstacle With Untrustworthy Features
- Title(参考訳): 不確実な特徴を有する乾燥道路と負障害物の分離のための適応マスク融合ネットワーク
- Authors: Zhen Feng, Yuchao Feng, Yanning Guo, Yuxiang Sun
- Abstract要約: 信頼できない特徴を持つ2つのモーダルデータを融合する場合、マルチモーダルネットワークの性能は劣化する可能性がある。
不整合のあるRGBや深度画像から特徴を融合させるために,アダプティブ・マスク・フュージョン・ネットワーク(AMFNet)を提案する。
我々のネットワークは,他のネットワークと比較して最先端の性能を実現している。
- 参考スコア(独自算出の注目度): 7.6830358429947
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Segmentation of drivable roads and negative obstacles is critical to the safe
driving of autonomous vehicles. Currently, many multi-modal fusion methods have
been proposed to improve segmentation accuracy, such as fusing RGB and depth
images. However, we find that when fusing two modals of data with untrustworthy
features, the performance of multi-modal networks could be degraded, even lower
than those using a single modality. In this paper, the untrustworthy features
refer to those extracted from regions (e.g., far objects that are beyond the
depth measurement range) with invalid depth data (i.e., 0 pixel value) in depth
images. The untrustworthy features can confuse the segmentation results, and
hence lead to inferior results. To provide a solution to this issue, we propose
the Adaptive-Mask Fusion Network (AMFNet) by introducing adaptive-weight masks
in the fusion module to fuse features from RGB and depth images with
inconsistency. In addition, we release a large-scale RGB-depth dataset with
manually-labeled ground truth based on the NPO dataset for drivable roads and
negative obstacles segmentation. Extensive experimental results demonstrate
that our network achieves state-of-the-art performance compared with other
networks. Our code and dataset are available at:
https://github.com/lab-sun/AMFNet.
- Abstract(参考訳): ドライビング可能な道路と負の障害物のセグメンテーションは、自動運転車の安全な運転に不可欠である。
現在、RGBや深度画像の融合など、セグメンテーション精度を向上させるために多くのマルチモーダル融合法が提案されている。
しかし、信頼できない特徴を持つ2つのモーダルデータを融合する場合、マルチモーダルネットワークの性能は単一のモーダルを使用するよりも低下する可能性がある。
本稿では,不確実な特徴として,深度画像における不確定深度データ(すなわち0ピクセル値)を持つ領域(例えば,深度測定範囲を超えている遠方物体)から抽出した特徴について述べる。
信頼できない特徴はセグメンテーションの結果を混乱させ、その結果は劣る結果をもたらす。
そこで本研究では,RGBと深度画像とを不整合で融合するために,適応重み付きマスクを融合モジュールに導入し,適応マスク融合ネットワーク(AMFNet)を提案する。
さらに,drivable road と negative obstacles segmentation のための npo データセットに基づく,手作業による基底真理のラベル付き大規模 rgb-depth データセットをリリースする。
広範な実験結果から,本ネットワークは他のネットワークと比較して最先端の性能が得られた。
私たちのコードとデータセットは以下の通りです。
関連論文リスト
- Mutual-Guided Dynamic Network for Image Fusion [51.615598671899335]
画像融合のための新しい相互誘導動的ネットワーク(MGDN)を提案する。
5つのベンチマークデータセットによる実験結果から,提案手法は4つの画像融合タスクにおいて既存手法よりも優れていることが示された。
論文 参考訳(メタデータ) (2023-08-24T03:50:37Z) - Pyramid Deep Fusion Network for Two-Hand Reconstruction from RGB-D Images [11.100398985633754]
両手で高密度メッシュを復元するためのエンドツーエンドフレームワークを提案する。
我々のフレームワークはResNet50とPointNet++を使って、RGBとpoint cloudから機能を派生しています。
また,異なるスケールで特徴を集約する新しいピラミッド深層核融合ネットワーク (PDFNet) も導入した。
論文 参考訳(メタデータ) (2023-07-12T09:33:21Z) - Scale Invariant Semantic Segmentation with RGB-D Fusion [12.650574326251023]
RGB-D画像を用いたスケール不変セマンティックセグメンテーションのためのニューラルネットワークアーキテクチャを提案する。
画素単位のセマンティックセグメンテーションのためのRGBデータに深度情報を組み込んで,屋外シーンにおける異なるスケールオブジェクトに対処する。
我々のモデルはコンパクトであり、他のRGBモデルにも容易に適用できる。
論文 参考訳(メタデータ) (2022-04-10T12:54:27Z) - Fast Road Segmentation via Uncertainty-aware Symmetric Network [15.05244258071472]
従来の手法では、両方の方法で高い推論速度と高い精度を達成できない。
RGBと深度データの異なる特性は十分に明らかにされておらず、予測された道路の信頼性を制限している。
本稿では,RGBと深度データを完全に融合させることで,速度と精度のトレードオフを実現するための不確実性対応対称ネットワーク(USNet)を提案する。
論文 参考訳(メタデータ) (2022-03-09T06:11:29Z) - MTFNet: Mutual-Transformer Fusion Network for RGB-D Salient Object
Detection [15.371153771528093]
RGB-D SODのためのMTFNet(Mutual-Transformer Fusion Network)を提案する。
MTFNet には $i.e.$, Focal Feature Extractor (FFE) と Mutual-Transformer Fusion (MTF) という2つの主要なモジュールが含まれている。
6つの公開ベンチマークの総合的な実験結果から,提案したMTFNetの優位性を示す。
論文 参考訳(メタデータ) (2021-12-02T12:48:37Z) - EPMF: Efficient Perception-aware Multi-sensor Fusion for 3D Semantic Segmentation [62.210091681352914]
自律運転やロボティクスなど,多くのアプリケーションを対象とした3次元セマンティックセマンティックセグメンテーションのためのマルチセンサフュージョンについて検討する。
本研究では,知覚認識型マルチセンサフュージョン(PMF)と呼ばれる協調融合方式について検討する。
本稿では,2つのモードから特徴を分離して抽出する2ストリームネットワークを提案する。
論文 参考訳(メタデータ) (2021-06-21T10:47:26Z) - Self-Supervised Representation Learning for RGB-D Salient Object
Detection [93.17479956795862]
我々は、自己教師付き表現学習を用いて、クロスモーダルオートエンコーダと深さ-輪郭推定という2つのプレテキストタスクを設計する。
我々のプレテキストタスクは、ネットワークがリッチなセマンティックコンテキストをキャプチャする事前トレーニングを実行するのに、少数のRGB-Dデータセットしか必要としない。
RGB-D SODにおけるクロスモーダル核融合の固有の問題として,マルチパス核融合モジュールを提案する。
論文 参考訳(メタデータ) (2021-01-29T09:16:06Z) - MobileSal: Extremely Efficient RGB-D Salient Object Detection [62.04876251927581]
本稿では,効率的なRGB-Dサルエント物体検出(SOD)に焦点を当てた新しいネットワーク,メソッド名を提案する。
RGB-D SODのためのモバイルネットワークの特徴表現能力を強化するために,暗黙的深度復元(IDR)手法を提案する。
IDRとCPRを組み込むことで、7つの挑戦的なRGB-D SODデータセット上のsArtメソッドに対してメソッド名が好ましい。
論文 参考訳(メタデータ) (2020-12-24T04:36:42Z) - Progressively Guided Alternate Refinement Network for RGB-D Salient
Object Detection [63.18846475183332]
我々は,RGB-Dの高次物体検出のための効率的かつコンパクトなディープネットワークを開発することを目指している。
そこで本研究では,改良のための改良ネットワークを提案する。
我々のモデルは、既存の最先端のアプローチよりも大きなマージンで優れています。
論文 参考訳(メタデータ) (2020-08-17T02:55:06Z) - Accurate RGB-D Salient Object Detection via Collaborative Learning [101.82654054191443]
RGB-Dサリエンシ検出は、いくつかの課題シナリオにおいて素晴らしい能力を示している。
本稿では,エッジ,深度,塩分濃度をより効率的に活用する新しい協調学習フレームワークを提案する。
論文 参考訳(メタデータ) (2020-07-23T04:33:36Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。