論文の概要: Map-aided annotation for pole base detection
- arxiv url: http://arxiv.org/abs/2403.01868v1
- Date: Mon, 4 Mar 2024 09:23:11 GMT
- ステータス: 処理完了
- システム内更新日: 2024-03-06 19:29:49.396483
- Title: Map-aided annotation for pole base detection
- Title(参考訳): ポールベース検出のためのマップ支援アノテーション
- Authors: Benjamin Missaoui (Heudiasyc), Maxime Noizet (Heudiasyc), Philippe Xu
(Heudiasyc)
- Abstract要約: 本稿では2次元HDマップを用いて,画像中の極状特徴を自動的にアノテートする。
高さ情報がない場合、地図の特徴は地上のポールベースとして表現される。
ポールベースを検出するためにオブジェクト検出器をどのように訓練するかを示す。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: For autonomous navigation, high definition maps are a widely used source of
information. Pole-like features encoded in HD maps such as traffic signs,
traffic lights or street lights can be used as landmarks for localization. For
this purpose, they first need to be detected by the vehicle using its embedded
sensors. While geometric models can be used to process 3D point clouds
retrieved by lidar sensors, modern image-based approaches rely on deep neural
network and therefore heavily depend on annotated training data. In this paper,
a 2D HD map is used to automatically annotate pole-like features in images. In
the absence of height information, the map features are represented as pole
bases at the ground level. We show how an additional lidar sensor can be used
to filter out occluded features and refine the ground projection. We also
demonstrate how an object detector can be trained to detect a pole base. To
evaluate our methodology, it is first validated with data manually annotated
from semantic segmentation and then compared to our own automatically generated
annotated data recorded in the city of Compi{\`e}gne, France. Erratum: In the
original version [1], an error occurred in the accuracy evaluation of the
different models studied and the evaluation method applied on the detection
results was not clearly defined. In this revision, we offer a rectification to
this segment, presenting updated results, especially in terms of Mean Absolute
Errors (MAE).
- Abstract(参考訳): 自律ナビゲーションでは、高定義マップは広く使われている情報ソースである。
道路標識、信号機、街灯などのHDマップにエンコードされたポールのような機能は、ローカライゼーションのランドマークとして使用できる。
この目的のためには、最初にその組み込みセンサーを使用して車両によって検出される必要がある。
幾何学モデルはライダーセンサーが取得した3Dポイントクラウドの処理に使用することができるが、現代の画像ベースのアプローチはディープニューラルネットワークに依存しているため、注釈付きトレーニングデータに大きく依存している。
本稿では2次元HDマップを用いて,画像中の極状特徴を自動的にアノテートする。
高さ情報がない場合、地図の特徴は地上のポールベースとして表現される。
新たにlidarセンサーを応用して、遮蔽された特徴をフィルタリングし、地盤の投射を洗練する方法を示す。
また,物体検出器をポールベースを検出するように訓練する方法を実証する。
提案手法を評価するために,まず,意味セグメンテーションから手作業でアノテートしたデータを用いて検証し,その後,フランスのcompi{\`e}gne市で自動生成したアノテートデータと比較した。
Erratum: 原版[1]では, 異なるモデルの精度評価において誤差が発生し, 検出結果に適用した評価方法が明確には定義されなかった。
本改訂では,特にMAE(Mean Absolute Errors)の観点から,このセグメントを補正し,更新結果を提示する。
関連論文リスト
- Improving Online Lane Graph Extraction by Object-Lane Clustering [106.71926896061686]
本稿では,局所レーングラフの推定精度を向上させるために,アーキテクチャと損失の定式化を提案する。
提案手法は,中心線をクラスタ中心とすることで,対象を中心線に割り当てることを学ぶ。
提案手法は既存の3次元オブジェクト検出手法の出力を用いて,大幅な性能向上を実現することができることを示す。
論文 参考訳(メタデータ) (2023-07-20T15:21:28Z) - DisPlacing Objects: Improving Dynamic Vehicle Detection via Visual Place
Recognition under Adverse Conditions [29.828201168816243]
本研究では,3次元マップを必要とせずに,シーン内の動的物体の検出を支援するために,先行マップを活用できるかどうかを検討する。
提案手法は,対象物検出の初期セットを洗練し,事前マップを用いて高精度な検出のサブセットを生成するアルゴリズムである。
論文 参考訳(メタデータ) (2023-06-30T10:46:51Z) - ALSO: Automotive Lidar Self-supervision by Occupancy estimation [70.70557577874155]
本稿では,ポイントクラウド上で動作している深層知覚モデルのバックボーンを事前学習するための自己教師型手法を提案する。
中心となる考え方は、3Dポイントがサンプリングされる表面の再構成であるプリテキストタスクでモデルをトレーニングすることである。
直感的には、もしネットワークがわずかな入力ポイントのみを考慮し、シーン表面を再構築できるなら、おそらく意味情報の断片をキャプチャする。
論文 参考訳(メタデータ) (2022-12-12T13:10:19Z) - Robust Object Detection in Remote Sensing Imagery with Noisy and Sparse
Geo-Annotations (Full Version) [4.493174773769076]
本稿では,非常にノイズの多い,不完全なアノテーションを用いたオブジェクト検出器のトレーニング手法を提案する。
本手法は,教師による学習フレームワークと,不正確で欠落したアノテーションを考慮した修正モジュールに基づく。
我々は,雑音の多い実世界のリモートセンシングデータセット上で,標準検出器を37.1%$AP_50$で改善できることを実証した。
論文 参考訳(メタデータ) (2022-10-24T07:25:31Z) - OccAM's Laser: Occlusion-based Attribution Maps for 3D Object Detectors
on LiDAR Data [8.486063950768694]
本稿では,LiDAR点雲における3次元物体検出のための属性マップを生成する手法を提案する。
これらのマップは、特定のオブジェクトを予測する上で、各3Dポイントの重要性を示している。
本稿では,属性マップの詳細な評価を行い,それらが解釈可能かつ高情報であることを示す。
論文 参考訳(メタデータ) (2022-04-13T18:00:30Z) - Continuous Self-Localization on Aerial Images Using Visual and Lidar
Sensors [25.87104194833264]
本研究では,車両のセンサ情報を未確認対象領域の航空画像に登録することにより,屋外環境におけるジオトラッキング手法を提案する。
我々は、地上および空中画像から視覚的特徴を抽出するために、計量学習環境でモデルを訓練する。
本手法は,視認不可能な正光の自己局在化のために,エンド・ツー・エンドの微分可能なモデルでオンボードカメラを利用する最初の方法である。
論文 参考訳(メタデータ) (2022-03-07T12:25:44Z) - Semantic Image Alignment for Vehicle Localization [111.59616433224662]
単眼カメラからのセマンティックセグメンテーションを用いた高密度セマンティックマップにおける車両位置推定手法を提案する。
既存の視覚的ローカライゼーションアプローチとは対照的に、システムは追加のキーポイント機能、手作りのローカライゼーションランドマーク抽出器、高価なLiDARセンサーを必要としない。
論文 参考訳(メタデータ) (2021-10-08T14:40:15Z) - MapFusion: A General Framework for 3D Object Detection with HDMaps [17.482961825285013]
現代の3Dオブジェクトディテクタパイプラインにマップ情報を統合するためのMapFusionを提案します。
マップ情報を融合することにより、3つの強力な3dオブジェクト検出ベースラインで平均精度(map)が1.27ポイントから2.79ポイント向上する。
論文 参考訳(メタデータ) (2021-03-10T08:36:59Z) - Rethinking Localization Map: Towards Accurate Object Perception with
Self-Enhancement Maps [78.2581910688094]
本研究は, カテゴリーラベルのみを監督として, 正確な対象位置分布マップと対象境界を抽出する, 新たな自己強調手法を提案する。
特に、提案されたセルフエンハンスメントマップは、ILSVRC上で54.88%の最先端のローカライゼーション精度を達成する。
論文 参考訳(メタデータ) (2020-06-09T12:35:55Z) - Weakly-Supervised Salient Object Detection via Scribble Annotations [54.40518383782725]
本稿では,スクリブルラベルからサリエンシを学習するための弱教師付きサリエント物体検出モデルを提案する。
そこで本研究では,予測されたサリエンシマップの構造アライメントを測定するために,新しい尺度であるサリエンシ構造尺度を提案する。
我々の手法は、既存の弱教師付き/非教師付き手法よりも優れているだけでなく、いくつかの完全教師付き最先端モデルと同等である。
論文 参考訳(メタデータ) (2020-03-17T12:59:50Z) - Road Curb Detection and Localization with Monocular Forward-view Vehicle
Camera [74.45649274085447]
魚眼レンズを装着した校正単眼カメラを用いて3Dパラメータを推定するロバストな手法を提案する。
我々のアプローチでは、車両が90%以上の精度で、リアルタイムで距離を抑えることができる。
論文 参考訳(メタデータ) (2020-02-28T00:24:18Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。