論文の概要: Fast Road Segmentation via Uncertainty-aware Symmetric Network
- arxiv url: http://arxiv.org/abs/2203.04537v1
- Date: Wed, 9 Mar 2022 06:11:29 GMT
- ステータス: 処理完了
- システム内更新日: 2022-03-10 14:23:46.507857
- Title: Fast Road Segmentation via Uncertainty-aware Symmetric Network
- Title(参考訳): 不確実性を考慮した対称ネットワークによる高速道路セグメンテーション
- Authors: Yicong Chang, Feng Xue, Fei Sheng, Wenteng Liang, Anlong Ming
- Abstract要約: 従来の手法では、両方の方法で高い推論速度と高い精度を達成できない。
RGBと深度データの異なる特性は十分に明らかにされておらず、予測された道路の信頼性を制限している。
本稿では,RGBと深度データを完全に融合させることで,速度と精度のトレードオフを実現するための不確実性対応対称ネットワーク(USNet)を提案する。
- 参考スコア(独自算出の注目度): 15.05244258071472
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The high performance of RGB-D based road segmentation methods contrasts with
their rare application in commercial autonomous driving, which is owing to two
reasons: 1) the prior methods cannot achieve high inference speed and high
accuracy in both ways; 2) the different properties of RGB and depth data are
not well-exploited, limiting the reliability of predicted road. In this paper,
based on the evidence theory, an uncertainty-aware symmetric network (USNet) is
proposed to achieve a trade-off between speed and accuracy by fully fusing RGB
and depth data. Firstly, cross-modal feature fusion operations, which are
indispensable in the prior RGB-D based methods, are abandoned. We instead
separately adopt two light-weight subnetworks to learn road representations
from RGB and depth inputs. The light-weight structure guarantees the real-time
inference of our method. Moreover, a multiscale evidence collection (MEC)
module is designed to collect evidence in multiple scales for each modality,
which provides sufficient evidence for pixel class determination. Finally, in
uncertainty-aware fusion (UAF) module, the uncertainty of each modality is
perceived to guide the fusion of the two subnetworks. Experimental results
demonstrate that our method achieves a state-of-the-art accuracy with real-time
inference speed of 43+ FPS. The source code is available at
https://github.com/morancyc/USNet.
- Abstract(参考訳): RGB-Dに基づく道路分割手法の高性能化は、商用自動運転におけるまれな応用とは対照的である。
1) 従来手法では,両方の方法で高い推論速度と高い精度を達成できない。
2)rgbと深度データの異なる特性は十分に解明されておらず,予測道路の信頼性に制限がある。
本稿では,rgbと深さデータを完全に融合することにより,速度と精度のトレードオフを実現するため,不確実性認識型対称ネットワーク (usnet) を提案する。
第一に、先行するrgb-d法で必須となるクロスモーダル特徴融合演算は放棄される。
代わりに、RGBと深度入力から道路表現を学ぶために、2つの軽量サブネットワークを別々に採用する。
軽量構造は,本手法のリアルタイム推定を保証する。
さらに,マルチスケールエビデンスコレクション(MEC)モジュールは,各モダリティに対して複数のスケールでエビデンスを収集するように設計され,画素クラス決定に十分なエビデンスを提供する。
最後に、不確実性認識融合(UAF)モジュールにおいて、各モードの不確実性は、2つのサブネットの融合を導くものとして認識される。
実験の結果,実時間推定速度43fpsで最先端精度が得られることがわかった。
ソースコードはhttps://github.com/morancyc/USNetで入手できる。
関連論文リスト
- Dual Mutual Learning Network with Global-local Awareness for RGB-D Salient Object Detection [10.353412441955436]
本研究では,グローバルな相互学習ネットワークであるGL-DMNetを提案する。
異なるモード間の相互依存性を利用するために,位置相互融合モジュールとチャネル相互融合モジュールを提案する。
提案するGL-DMNetは, 24 RGB-D SOD法よりも優れた性能を示し, 平均3%の改善を実現している。
論文 参考訳(メタデータ) (2025-01-03T05:37:54Z) - HODINet: High-Order Discrepant Interaction Network for RGB-D Salient
Object Detection [4.007827908611563]
RGB-D Salient Object Detection (SOD) は、RGBと深度情報を共同でモデル化することで、顕著な領域を検出することを目的としている。
ほとんどのRGB-D SOD法は、同じ種類のバックボーンと融合モジュールを適用して、マルチモーダリティとマルチステージの特徴を同一に学習する。
本稿では,RGB-D SODのための高次離散相互作用ネットワーク(HODINet)を提案する。
論文 参考訳(メタデータ) (2023-07-03T11:56:21Z) - Adaptive-Mask Fusion Network for Segmentation of Drivable Road and
Negative Obstacle With Untrustworthy Features [7.6830358429947]
信頼できない特徴を持つ2つのモーダルデータを融合する場合、マルチモーダルネットワークの性能は劣化する可能性がある。
不整合のあるRGBや深度画像から特徴を融合させるために,アダプティブ・マスク・フュージョン・ネットワーク(AMFNet)を提案する。
我々のネットワークは,他のネットワークと比較して最先端の性能を実現している。
論文 参考訳(メタデータ) (2023-04-27T07:00:45Z) - Dual Swin-Transformer based Mutual Interactive Network for RGB-D Salient
Object Detection [67.33924278729903]
本研究では,Dual Swin-Transformerを用いたMutual Interactive Networkを提案する。
視覚入力における長距離依存をモデル化するために,RGBと奥行きモードの両方の機能抽出器としてSwin-Transformerを採用している。
5つの標準RGB-D SODベンチマークデータセットに関する総合的な実験は、提案手法の優位性を実証している。
論文 参考訳(メタデータ) (2022-06-07T08:35:41Z) - Self-Supervised Representation Learning for RGB-D Salient Object
Detection [93.17479956795862]
我々は、自己教師付き表現学習を用いて、クロスモーダルオートエンコーダと深さ-輪郭推定という2つのプレテキストタスクを設計する。
我々のプレテキストタスクは、ネットワークがリッチなセマンティックコンテキストをキャプチャする事前トレーニングを実行するのに、少数のRGB-Dデータセットしか必要としない。
RGB-D SODにおけるクロスモーダル核融合の固有の問題として,マルチパス核融合モジュールを提案する。
論文 参考訳(メタデータ) (2021-01-29T09:16:06Z) - Siamese Network for RGB-D Salient Object Detection and Beyond [113.30063105890041]
共有ネットワークバックボーンを通じてRGBと深度入力の両方から学習するための新しいフレームワークが提案されている。
5つの一般的な指標を用いた総合的な実験は、設計されたフレームワークが堅牢なRGB-D塩分濃度検出器をもたらすことを示している。
また、JL-DCFをRGB-Dセマンティックセマンティックセマンティクスフィールドにリンクし、いくつかのセマンティクスセマンティクスモデルよりも優れた性能を示す。
論文 参考訳(メタデータ) (2020-08-26T06:01:05Z) - Bi-directional Cross-Modality Feature Propagation with
Separation-and-Aggregation Gate for RGB-D Semantic Segmentation [59.94819184452694]
深度情報はRGBD画像のセマンティックセグメンテーションにおいて有用であることが証明されている。
既存のほとんどの研究は、深度測定がRGBピクセルと正確で整合していると仮定し、問題をモーダルな特徴融合としてモデル化している。
本稿では,RGB特徴量応答を効果的に再検討するだけでなく,複数の段階を通して正確な深度情報を抽出し,代わりに2つの補正表現を集約する,統一的で効率的なクロスモダリティガイドを提案する。
論文 参考訳(メタデータ) (2020-07-17T18:35:24Z) - A Single Stream Network for Robust and Real-time RGB-D Salient Object
Detection [89.88222217065858]
我々は、深度マップを用いて、RGBと深度の間の早期融合と中核融合を誘導する単一ストリームネットワークを設計する。
このモデルは、現在の最も軽量なモデルよりも55.5%軽く、32 FPSのリアルタイム速度で384倍の384ドルの画像を処理している。
論文 参考訳(メタデータ) (2020-07-14T04:40:14Z) - Is Depth Really Necessary for Salient Object Detection? [50.10888549190576]
本稿では,RGB情報のみを推論の入力とする統合深度認識フレームワークの実現に向けた最初の試みを行う。
5つの公開RGB SODベンチマークの最先端のパフォーマンスを上回るだけでなく、5つのベンチマークのRGBDベースのメソッドを大きく上回っている。
論文 参考訳(メタデータ) (2020-05-30T13:40:03Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。