論文の概要: Fusion of neural networks, for LIDAR-based evidential road mapping
- arxiv url: http://arxiv.org/abs/2102.03326v1
- Date: Fri, 5 Feb 2021 18:14:36 GMT
- ステータス: 処理完了
- システム内更新日: 2021-02-08 14:38:30.960324
- Title: Fusion of neural networks, for LIDAR-based evidential road mapping
- Title(参考訳): LIDARに基づく道路マッピングのためのニューラルネットワークの融合
- Authors: Edouard Capellier, Franck Davoine, Veronique Cherfaoui, You Li
- Abstract要約: LIDARスキャンにおける道路検出に最適化された新しい畳み込みアーキテクチャであるRoadSegを紹介する。
RoadSegは、個々のLIDARポイントを道路に属するか、そうでないかを分類するために使用される。
そこで本研究では,連続した道路検出結果を融合する明らかな道路マッピングアルゴリズムを提案する。
- 参考スコア(独自算出の注目度): 3.065376455397363
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: LIDAR sensors are usually used to provide autonomous vehicles with 3D
representations of their environment. In ideal conditions, geometrical models
could detect the road in LIDAR scans, at the cost of a manual tuning of
numerical constraints, and a lack of flexibility. We instead propose an
evidential pipeline, to accumulate road detection results obtained from neural
networks. First, we introduce RoadSeg, a new convolutional architecture that is
optimized for road detection in LIDAR scans. RoadSeg is used to classify
individual LIDAR points as either belonging to the road, or not. Yet, such
point-level classification results need to be converted into a dense
representation, that can be used by an autonomous vehicle. We thus secondly
present an evidential road mapping algorithm, that fuses consecutive road
detection results. We benefitted from a reinterpretation of logistic
classifiers, which can be seen as generating a collection of simple evidential
mass functions. An evidential grid map that depicts the road can then be
obtained, by projecting the classification results from RoadSeg into grid
cells, and by handling moving objects via conflict analysis. The system was
trained and evaluated on real-life data. A python implementation maintains a 10
Hz framerate. Since road labels were needed for training, a soft labelling
procedure, relying lane-level HD maps, was used to generate coarse training and
validation sets. An additional test set was manually labelled for evaluation
purposes. So as to reach satisfactory results, the system fuses road detection
results obtained from three variants of RoadSeg, processing different LIDAR
features.
- Abstract(参考訳): LIDARセンサーは、通常、環境の3D表現を自動運転車に提供するために使用される。
理想的な条件では、幾何学的モデルは、数値制約の手動チューニングと柔軟性の欠如のコストで、LIDARスキャンの道路を検出することができます。
代わりに,ニューラルネットワークから得られた道路検出結果を蓄積する立証パイプラインを提案する。
まず、LIDARスキャンで道路検出に最適化された新しい畳み込みアーキテクチャであるRoadSegを紹介します。
RoadSegは、個々のLIDARポイントを道路に属するか、そうでないかを分類するために使用される。
しかし、そのような点レベルの分類結果は、自動運転車で使用できる密集した表現に変換する必要がある。
そこで第2に,連続する道路検出結果と融合する道路マッピングアルゴリズムを提案する。
私たちは、単純明快な質量関数の集合を生成すると見ることができるロジスティック分類器の再解釈から利益を得ました。
道路からグリッドセルに分類結果を投影し、コンフリクト解析によって動く物体を処理することにより、道路を描写した実証的なグリッドマップを得ることができる。
システムは実生活データに基づいて訓練され評価された。
python実装は10Hzのフレームレートを維持します。
トレーニングには道路標識が必要であったため、レーンレベルのhdマップに依存したソフトなラベリング手順が、粗いトレーニングと検証セットを生成するために用いられた。
追加のテストセットは評価目的で手動でラベル付けされた。
十分な結果を得るために、システムは3種類のroadegから得られた道路検出結果を融合し、異なるlidar特徴を処理する。
関連論文リスト
- Neural Semantic Map-Learning for Autonomous Vehicles [85.8425492858912]
本稿では,道路環境のコヒーレントな地図を作成するために,車両群から収集した局所部分写像を中心インスタンスに融合するマッピングシステムを提案する。
本手法は,シーン特異的なニューラルサイン距離場を用いて,雑音と不完全局所部分写像を併用する。
我々は,記憶効率の高いスパース機能グリッドを活用して大規模にスケールし,シーン再構築における不確実性をモデル化するための信頼スコアを導入する。
論文 参考訳(メタデータ) (2024-10-10T10:10:03Z) - Probabilistic road classification in historical maps using synthetic data and deep learning [3.3755652248305004]
深層学習と地理情報,コンピュータによる絵画,画像処理手法を融合した新しいフレームワークを提案する。
この枠組みは,道路地形のみを用いた歴史地図からの道路の抽出と分類を可能にする。
道路クラス2では, それぞれ94%以上, 92%以上であった。
論文 参考訳(メタデータ) (2024-10-03T06:43:09Z) - LMT-Net: Lane Model Transformer Network for Automated HD Mapping from Sparse Vehicle Observations [11.395749549636868]
Lane Model Transformer Network (LMT-Net) は、エンコーダとデコーダのニューラルネットワークアーキテクチャであり、ポリリン符号化を実行し、レーンペアとその接続性を予測する。
我々は、複数の車両観測と、地上真実(GT)としての人間のアノテーションからなる内部データセット上でのLMT-Netの性能を評価する。
論文 参考訳(メタデータ) (2024-09-19T02:14:35Z) - Leveraging GNSS and Onboard Visual Data from Consumer Vehicles for Robust Road Network Estimation [18.236615392921273]
本稿では,自動運転車における道路グラフ構築の課題について述べる。
本稿では,これらの標準センサから取得したグローバルナビゲーション衛星システム(GNSS)のトレースと基本画像データについて提案する。
我々は、畳み込みニューラルネットワークを用いて、道路中心のセマンティックセグメンテーションタスクとして問題をフレーミングすることで、データの空間情報を利用する。
論文 参考訳(メタデータ) (2024-08-03T02:57:37Z) - Unsupervised Domain Adaptation for Self-Driving from Past Traversal
Features [69.47588461101925]
本研究では,新しい運転環境に3次元物体検出器を適応させる手法を提案する。
提案手法は,空間的量子化履歴特徴を用いたLiDARに基づく検出モデルを強化する。
実世界のデータセットの実験では、大幅な改善が示されている。
論文 参考訳(メタデータ) (2023-09-21T15:00:31Z) - Decoupling the Curve Modeling and Pavement Regression for Lane Detection [67.22629246312283]
曲線に基づく車線表現は多くの車線検出法で一般的な手法である。
本稿では,曲線モデルと地上高さ回帰という2つの部分に分解することで,車線検出タスクに対する新しいアプローチを提案する。
論文 参考訳(メタデータ) (2023-09-19T11:24:14Z) - Haul Road Mapping from GPS Traces [0.0]
本稿では,道路網の正確な表現を,現場で運用されているトラックから取得したGPSデータを用いて自動的に導き出す可能性について検討する。
全ての試験アルゴリズムで見られる欠点に基づいて, 地雷の現場に典型的な工芸品の道路地図を幾何学的に解析するポストプロセッシング・ステップが開発された。
論文 参考訳(メタデータ) (2022-06-27T04:35:06Z) - Laser Data Based Automatic Generation of Lane-Level Road Map for
Intelligent Vehicles [1.3185526395713805]
本稿では,車線レベル自動道路地図生成システムを提案する。
提案システムは,中国河北省の都市部および高速道路で試験されている。
私たちの方法は、優れた抽出とクラスタリング効果を達成することができ、フィッティングラインは10cm未満の誤差で高い位置精度に達することができます。
論文 参考訳(メタデータ) (2020-12-11T01:09:04Z) - Detecting 32 Pedestrian Attributes for Autonomous Vehicles [103.87351701138554]
本稿では、歩行者を共同で検出し、32の歩行者属性を認識するという課題に対処する。
本稿では,複合フィールドフレームワークを用いたマルチタスク学習(MTL)モデルを提案する。
競合検出と属性認識の結果と,より安定したMTLトレーニングを示す。
論文 参考訳(メタデータ) (2020-12-04T15:10:12Z) - Towards Autonomous Driving: a Multi-Modal 360$^{\circ}$ Perception
Proposal [87.11988786121447]
本稿では,自動運転車の3次元物体検出と追跡のためのフレームワークを提案する。
このソリューションは、新しいセンサ融合構成に基づいて、正確で信頼性の高い道路環境検出を提供する。
自動運転車に搭載されたシステムの様々なテストは、提案された知覚スタックの適合性を評価することに成功している。
論文 参考訳(メタデータ) (2020-08-21T20:36:21Z) - Road Curb Detection and Localization with Monocular Forward-view Vehicle
Camera [74.45649274085447]
魚眼レンズを装着した校正単眼カメラを用いて3Dパラメータを推定するロバストな手法を提案する。
我々のアプローチでは、車両が90%以上の精度で、リアルタイムで距離を抑えることができる。
論文 参考訳(メタデータ) (2020-02-28T00:24:18Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。