論文の概要: Dynamic Fusion Module Evolves Drivable Area and Road Anomaly Detection:
A Benchmark and Algorithms
- arxiv url: http://arxiv.org/abs/2103.02433v2
- Date: Thu, 4 Mar 2021 06:01:08 GMT
- ステータス: 処理完了
- システム内更新日: 2021-03-05 13:01:12.191126
- Title: Dynamic Fusion Module Evolves Drivable Area and Road Anomaly Detection:
A Benchmark and Algorithms
- Title(参考訳): 動的核融合モジュールによる乾燥領域と道路異常検出:ベンチマークとアルゴリズム
- Authors: Hengli Wang, Rui Fan, Yuxiang Sun, Ming Liu
- Abstract要約: 移動ロボットにとって,乾燥領域と道路異常の同時検出は非常に重要である。
本稿では,まず,地上移動ロボットの乾性領域と道路異常検出ベンチマークを構築した。
本稿では,既存のデータ・フュージョン・ネットワークに容易にデプロイ可能なdynamic fusion module (dfm) と呼ばれる新しいモジュールを提案する。
- 参考スコア(独自算出の注目度): 16.417299198546168
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Joint detection of drivable areas and road anomalies is very important for
mobile robots. Recently, many semantic segmentation approaches based on
convolutional neural networks (CNNs) have been proposed for pixel-wise drivable
area and road anomaly detection. In addition, some benchmark datasets, such as
KITTI and Cityscapes, have been widely used. However, the existing benchmarks
are mostly designed for self-driving cars. There lacks a benchmark for ground
mobile robots, such as robotic wheelchairs. Therefore, in this paper, we first
build a drivable area and road anomaly detection benchmark for ground mobile
robots, evaluating the existing state-of-the-art single-modal and data-fusion
semantic segmentation CNNs using six modalities of visual features.
Furthermore, we propose a novel module, referred to as the dynamic fusion
module (DFM), which can be easily deployed in existing data-fusion networks to
fuse different types of visual features effectively and efficiently. The
experimental results show that the transformed disparity image is the most
informative visual feature and the proposed DFM-RTFNet outperforms the
state-of-the-arts. Additionally, our DFM-RTFNet achieves competitive
performance on the KITTI road benchmark. Our benchmark is publicly available at
https://sites.google.com/view/gmrb.
- Abstract(参考訳): 移動ロボットにとって,乾燥領域と道路異常の同時検出は非常に重要である。
近年,畳み込みニューラルネットワーク(CNN)に基づく多くのセマンティックセグメンテーション手法が,画素ワイドな領域と道路異常検出のために提案されている。
さらに、KITTIやCityscapesなどのベンチマークデータセットが広く使用されている。
しかし、既存のベンチマークは主に自動運転車向けに設計されている。
ロボット車椅子などの地上移動ロボットのベンチマークが欠けています。
そこで本論文では,まず地上移動ロボットの走行可能領域と道路異常検出ベンチマークを構築し,視覚的特徴の6つのモダリティを用いて,既存の最先端の単一モーダルおよびデータ融合セマンティックセグメンテーションCNNを評価する。
さらに,動的融合モジュール(DFM)と呼ばれる新しいモジュールを提案し,既存のデータ融合ネットワークに容易に展開し,異なるタイプの視覚的特徴を効果的かつ効率的に融合させることができる。
実験の結果,変換された不均質画像が最も有意義な視覚的特徴であり,提案したDFM-RTFNetは最先端技術よりも優れていた。
さらに,我々のDFM-RTFNetは,KITTIロードベンチマーク上での競合性能を実現している。
私たちのベンチマークはhttps://sites.google.com/view/gmrbで公開されています。
関連論文リスト
- G-MEMP: Gaze-Enhanced Multimodal Ego-Motion Prediction in Driving [71.9040410238973]
我々は、視線データを用いて、運転者の車両のエゴ軌道を推定することに集中する。
次に、GPSとビデオ入力と視線データを組み合わせた新しいマルチモーダルエゴ軌道予測ネットワークであるG-MEMPを開発する。
その結果,G-MEMPは両ベンチマークにおいて最先端の手法よりも優れていた。
論文 参考訳(メタデータ) (2023-12-13T23:06:30Z) - Detection-segmentation convolutional neural network for autonomous
vehicle perception [0.0]
物体検出とセグメンテーションは、自動運転車の認識システムの2つの中核モジュールである。
現在最もよく使われているアルゴリズムはディープニューラルネットワークに基づいており、高い効率性を保証するが、高性能なコンピューティングプラットフォームを必要とする。
ネットワークの複雑さの低減は、適切なアーキテクチャ、表現、コンピューティングプラットフォームを使用することで達成できる。
論文 参考訳(メタデータ) (2023-06-30T08:54:52Z) - FollowNet: A Comprehensive Benchmark for Car-Following Behavior Modeling [20.784555362703294]
自動車追従行動モデリングのための公開ベンチマークデータセットを構築した。
ベンチマークは、5つの公共運転データセットから抽出された80K以上のカーフォローイベントで構成されている。
以上の結果から, DDPGに基づくモデルでは, 間隔の低いMSEと競合する結果が得られた。
論文 参考訳(メタデータ) (2023-05-25T08:59:26Z) - Joint Spatial-Temporal and Appearance Modeling with Transformer for
Multiple Object Tracking [59.79252390626194]
本稿ではTransSTAMという新しい手法を提案する。Transformerを利用して各オブジェクトの外観特徴とオブジェクト間の空間的時間的関係の両方をモデル化する。
提案手法はMOT16, MOT17, MOT20を含む複数の公開ベンチマークで評価され, IDF1とHOTAの両方で明確な性能向上を実現している。
論文 参考訳(メタデータ) (2022-05-31T01:19:18Z) - Monocular Vision-based Prediction of Cut-in Maneuvers with LSTM Networks [0.0]
本研究では,エゴレーンで発生する潜在的に危険なカットイン動作を予測する手法を提案する。
我々は、1台の車載RGBカメラのみを使用するコンピュータビジョンベースのアプローチに従う。
本アルゴリズムは,CNNに基づく車両検出・追跡ステップとLSTMに基づく操縦分類ステップから構成される。
論文 参考訳(メタデータ) (2022-03-21T02:30:36Z) - Aerial Images Meet Crowdsourced Trajectories: A New Approach to Robust
Road Extraction [110.61383502442598]
我々は、Cross-Modal Message Propagation Network (CMMPNet)と呼ばれる新しいニューラルネットワークフレームワークを紹介する。
CMMPNetは、モダリティ固有の表現学習のための2つのディープオートエンコーダと、クロスモーダル表現洗練のためのテーラー設計のデュアルエンハンスメントモジュールで構成されている。
実世界の3つのベンチマーク実験により, CMMPNetによる堅牢な道路抽出の有効性が示された。
論文 参考訳(メタデータ) (2021-11-30T04:30:10Z) - Learnable Online Graph Representations for 3D Multi-Object Tracking [156.58876381318402]
3D MOT問題に対する統一型学習型アプローチを提案します。
我々は、完全にトレーニング可能なデータアソシエーションにNeural Message Passing Networkを使用します。
AMOTAの65.6%の最先端性能と58%のIDスウィッチを達成して、公開可能なnuScenesデータセットに対する提案手法のメリットを示す。
論文 参考訳(メタデータ) (2021-04-23T17:59:28Z) - Fine-Grained Vehicle Perception via 3D Part-Guided Visual Data
Augmentation [77.60050239225086]
実画像中の車両に動的部品を付加した3次元自動車モデルによる効果的なトレーニングデータ生成プロセスを提案する。
私達のアプローチは人間の相互作用なしで完全に自動です。
VUS解析用マルチタスクネットワークとVHI解析用マルチストリームネットワークを提案する。
論文 参考訳(メタデータ) (2020-12-15T03:03:38Z) - Applying Surface Normal Information in Drivable Area and Road Anomaly
Detection for Ground Mobile Robots [29.285200656398562]
我々は,高精細深度画像から表面正規情報を高精度かつ効率的に生成できる,NIM(Normal Inference Module)と呼ばれる新しいモジュールを開発した。
我々のNIMは既存の畳み込みニューラルネットワーク(CNN)に展開でき、セグメンテーション性能を改善できる。
提案するNIM-RTFNetは,KITTIロードベンチマークで8位であり,リアルタイムの推論速度を示す。
論文 参考訳(メタデータ) (2020-08-26T05:44:07Z) - Anchor-free Small-scale Multispectral Pedestrian Detection [88.7497134369344]
適応型単一段アンカーフリーベースアーキテクチャにおける2つのモードの効果的かつ効率的な多重スペクトル融合法を提案する。
我々は,直接的境界ボックス予測ではなく,対象の中心と規模に基づく歩行者表現の学習を目指す。
その結果,小型歩行者の検出における本手法の有効性が示唆された。
論文 参考訳(メタデータ) (2020-08-19T13:13:01Z) - SUPER: A Novel Lane Detection System [26.417172945374364]
本研究では,Scene Understanding Physics-Enhanced Real-time (SUPER)アルゴリズムと呼ばれるリアルタイムレーン検出システムを提案する。
我々は、Cityscapes、Vistas、Apolloの異種データを用いて提案システムを訓練し、4つの完全に独立したデータセットのパフォーマンスを評価する。
予備試験の結果,Mobileyeと比較して実車線検出性能は有望であった。
論文 参考訳(メタデータ) (2020-05-14T21:40:39Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。