論文の概要: Can you see me now? Blind spot estimation for autonomous vehicles using
scenario-based simulation with random reference sensors
- arxiv url: http://arxiv.org/abs/2402.00467v2
- Date: Wed, 14 Feb 2024 15:19:02 GMT
- ステータス: 処理完了
- システム内更新日: 2024-02-15 18:45:50.479959
- Title: Can you see me now? Blind spot estimation for autonomous vehicles using
scenario-based simulation with random reference sensors
- Title(参考訳): 今私に会えますか。
ランダム基準センサを用いたシナリオベースシミュレーションによる自動運転車の盲点推定
- Authors: Marc Uecker and J.Marius Z\"ollner
- Abstract要約: モンテカルロをベースとした参照センサシミュレーションにより,被写体サイズを被写体量として正確に推定することができる。
目的シナリオの高忠実度シミュレーションからLiDARセンサやカメラ深度画像からの点雲を利用して,正確な可視性推定を行う。
- 参考スコア(独自算出の注目度): 5.910402196056647
- License: http://creativecommons.org/licenses/by-sa/4.0/
- Abstract: In this paper, we introduce a method for estimating blind spots for sensor
setups of autonomous or automated vehicles and/or robotics applications. In
comparison to previous methods that rely on geometric approximations, our
presented approach provides more realistic coverage estimates by utilizing
accurate and detailed 3D simulation environments. Our method leverages point
clouds from LiDAR sensors or camera depth images from high-fidelity simulations
of target scenarios to provide accurate and actionable visibility estimates. A
Monte Carlo-based reference sensor simulation enables us to accurately estimate
blind spot size as a metric of coverage, as well as detection probabilities of
objects at arbitrary positions.
- Abstract(参考訳): 本稿では,自律走行車や自動走行車やロボットのセンサ・セットアップにおける盲点推定手法を提案する。
幾何学的近似に依存する従来の手法と比較して,本手法は高精度かつ詳細な3次元シミュレーション環境を用いて,より現実的なカバレッジ推定を行う。
目的シナリオの高忠実度シミュレーションからLiDARセンサやカメラ深度画像からの点雲を利用して,正確な可視性推定を行う。
モンテカルロを基準とした基準センサシミュレーションにより,ブラインドスポットサイズをカバレッジの指標として正確に推定し,任意の位置における物体の検出確率を推定できる。
関連論文リスト
- OccNeRF: Advancing 3D Occupancy Prediction in LiDAR-Free Environments [77.0399450848749]
本稿では,OccNeRF法を用いて,3次元監視なしで占有ネットワークを訓練する手法を提案する。
我々は、再構成された占有領域をパラメータ化し、サンプリング戦略を再編成し、カメラの無限知覚範囲に合わせる。
意味的占有予測のために,事前学習した開語彙2Dセグメンテーションモデルの出力をフィルタリングし,プロンプトを洗練するためのいくつかの戦略を設計する。
論文 参考訳(メタデータ) (2023-12-14T18:58:52Z) - Learning to Simulate Realistic LiDARs [66.7519667383175]
リアルLiDARセンサのデータ駆動シミュレーションのためのパイプラインを提案する。
本モデルでは, 透明表面上の落下点などの現実的な効果を符号化できることが示される。
我々は2つの異なるLiDARセンサのモデルを学習し、それに従ってシミュレーションされたLiDARデータを改善する。
論文 参考訳(メタデータ) (2022-09-22T13:12:54Z) - Mapping LiDAR and Camera Measurements in a Dual Top-View Grid
Representation Tailored for Automated Vehicles [3.337790639927531]
本稿では,LiDARやカメラなどの画像センサのための汎用的な網網マッピングパイプラインを提案する。
グリッドに基づく明らかなモデルでは,セル占有率と接地率を別々に推定する。
本手法は,セル占有率を高精細度かつ高精細度に評価し,効率を最大化し,外部処理モジュールへの依存性を最小限に抑える。
論文 参考訳(メタデータ) (2022-04-16T23:51:20Z) - SurroundDepth: Entangling Surrounding Views for Self-Supervised
Multi-Camera Depth Estimation [101.55622133406446]
本研究では,複数の周囲からの情報を組み込んだSurroundDepth法を提案し,カメラ間の深度マップの予測を行う。
具体的には、周囲のすべてのビューを処理し、複数のビューから情報を効果的に融合するクロスビュー変換器を提案する。
実験において,本手法は,挑戦的なマルチカメラ深度推定データセット上での最先端性能を実現する。
論文 参考訳(メタデータ) (2022-04-07T17:58:47Z) - iSDF: Real-Time Neural Signed Distance Fields for Robot Perception [64.80458128766254]
iSDFは実時間符号付き距離場再構成のための連続学習システムである。
より正確な再構築と、衝突コストと勾配のより良い近似を生成する。
論文 参考訳(メタデータ) (2022-04-05T15:48:39Z) - Lidar Light Scattering Augmentation (LISA): Physics-based Simulation of
Adverse Weather Conditions for 3D Object Detection [60.89616629421904]
ライダーベースの物体検出器は、自動運転車のような自律ナビゲーションシステムにおいて、3D知覚パイプラインの重要な部分である。
降雨、雪、霧などの悪天候に敏感で、信号-雑音比(SNR)と信号-背景比(SBR)が低下している。
論文 参考訳(メタデータ) (2021-07-14T21:10:47Z) - A Multi-Layered Approach for Measuring the Simulation-to-Reality Gap of
Radar Perception for Autonomous Driving [0.0]
仮想テストに頼るためには、採用されているセンサーモデルを検証する必要がある。
レーダ知覚のこのシミュレーションと現実のギャップを測定するための音響手法は存在しない。
提案手法の有効性を,詳細なセンサモデルによる評価により検証した。
論文 参考訳(メタデータ) (2021-06-15T18:51:39Z) - Baseline and Triangulation Geometry in a Standard Plenoptic Camera [6.719751155411075]
レンズカメラに三角測量を適用可能な幾何学的光場モデルを提案する。
提案手法から推定した距離は,カメラの前に設置した実物の距離と一致している。
論文 参考訳(メタデータ) (2020-10-09T15:31:14Z) - Testing the Safety of Self-driving Vehicles by Simulating Perception and
Prediction [88.0416857308144]
センサシミュレーションは高価であり,領域ギャップが大きいため,センサシミュレーションに代わる方法を提案する。
我々は、自動運転車の知覚と予測システムの出力を直接シミュレートし、現実的な動き計画テストを可能にする。
論文 参考訳(メタデータ) (2020-08-13T17:20:02Z) - Ego-motion and Surrounding Vehicle State Estimation Using a Monocular
Camera [11.29865843123467]
単眼カメラを用いて,エゴモーションと周囲の車両状態を推定する新しい機械学習手法を提案する。
提案手法は3つのディープニューラルネットワークを組み合わせて,画像列から3次元車両境界ボックス,深度,光学的流れを推定する。
論文 参考訳(メタデータ) (2020-05-04T16:41:38Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。