論文の概要: Verifiable Obstacle Detection
- arxiv url: http://arxiv.org/abs/2208.14403v1
- Date: Tue, 30 Aug 2022 17:15:35 GMT
- ステータス: 処理完了
- システム内更新日: 2022-08-31 13:44:11.404305
- Title: Verifiable Obstacle Detection
- Title(参考訳): 検証可能な障害物検出
- Authors: Ayoosh Bansal, Hunmin Kim, Simon Yu, Bo Li, Naira Hovakimyan, Marco
Caccamo and Lui Sha
- Abstract要約: 既存のLiDARに基づく古典的障害物検出アルゴリズムの安全性検証を行う。
本研究では,実世界のセンサデータに基づく実験結果を用いて,障害物検出システムの厳密な解析を行う。
- 参考スコア(独自算出の注目度): 10.277825331268179
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Perception of obstacles remains a critical safety concern for autonomous
vehicles. Real-world collisions have shown that the autonomy faults leading to
fatal collisions originate from obstacle existence detection. Open source
autonomous driving implementations show a perception pipeline with complex
interdependent Deep Neural Networks. These networks are not fully verifiable,
making them unsuitable for safety-critical tasks.
In this work, we present a safety verification of an existing LiDAR based
classical obstacle detection algorithm. We establish strict bounds on the
capabilities of this obstacle detection algorithm. Given safety standards, such
bounds allow for determining LiDAR sensor properties that would reliably
satisfy the standards. Such analysis has as yet been unattainable for neural
network based perception systems. We provide a rigorous analysis of the
obstacle detection system with empirical results based on real-world sensor
data.
- Abstract(参考訳): 障害物の認識は、自動運転車にとって重要な安全上の懸念である。
現実の衝突は、致命的な衝突につながる自律的欠陥が障害物の存在を検出することから生じることを示している。
オープンソースの自動運転実装は、複雑な相互依存型ディープニューラルネットワークによる知覚パイプラインを示している。
これらのネットワークは完全な検証ができないため、安全クリティカルなタスクには適さない。
本研究では,既存のLiDARに基づく古典的障害物検出アルゴリズムの安全性検証を行う。
我々はこの障害物検出アルゴリズムの能力の厳密な限界を確立する。
安全基準を考えると、そのような境界は標準を確実に満たすLiDARセンサー特性を決定することができる。
このような分析は、ニューラルネットワークベースの知覚システムでは、まだ不可能である。
実世界のセンサデータに基づく実験結果を用いた障害物検出システムの厳密な解析を行う。
関連論文リスト
- Automatic AI controller that can drive with confidence: steering vehicle with uncertainty knowledge [3.131134048419781]
本研究は,機械学習フレームワークを用いた車両の横方向制御システムの開発に焦点をあてる。
確率論的学習モデルであるベイズニューラルネットワーク(BNN)を用いて不確実性定量化に対処する。
信頼しきい値を確立することで、手動による介入をトリガーし、安全なパラメータの外で動作した場合に、制御がアルゴリズムから解放されることを保証できます。
論文 参考訳(メタデータ) (2024-04-24T23:22:37Z) - OOSTraj: Out-of-Sight Trajectory Prediction With Vision-Positioning Denoising [49.86409475232849]
軌道予測はコンピュータビジョンと自律運転の基本である。
この分野における既存のアプローチは、しばしば正確で完全な観測データを仮定する。
本稿では,視覚的位置決め技術を利用した視線外軌道予測手法を提案する。
論文 参考訳(メタデータ) (2024-04-02T18:30:29Z) - A Safety-Adapted Loss for Pedestrian Detection in Automated Driving [13.676179470606844]
安全クリティカルなドメインでは、オブジェクト検出器によるエラーは歩行者や他の脆弱な道路利用者を危険にさらす可能性がある。
本稿では,トレーニング中の歩行者あたりの臨界点の推定値を活用する安全意識の損失変動を提案する。
論文 参考訳(メタデータ) (2024-02-05T13:16:38Z) - STARNet: Sensor Trustworthiness and Anomaly Recognition via Approximated
Likelihood Regret for Robust Edge Autonomy [0.5310810820034502]
LiDAR、RADAR、イベントカメラといった複雑なセンサーは、自律型ロボティクスで急増している。
これらのセンサーは、運用環境と複雑な相互作用が可能な多様な障害メカニズムに対して脆弱である。
本稿では,信頼できないセンサストリームを検出するために設計されたセンサ信頼度・異常認識ネットワークSTARNetを紹介する。
論文 参考訳(メタデータ) (2023-09-20T02:20:11Z) - Unsupervised Adaptation from Repeated Traversals for Autonomous Driving [54.59577283226982]
自動運転車はエンドユーザー環境に一般化し、確実に動作させなければならない。
潜在的な解決策の1つは、エンドユーザの環境から収集されたラベルのないデータを活用することである。
適応過程を監督する信頼性のある信号はターゲット領域に存在しない。
この単純な仮定は、ターゲット領域上の3次元物体検出器の反復的自己学習を可能にする強力な信号を得るのに十分であることを示す。
論文 参考訳(メタデータ) (2023-03-27T15:07:55Z) - Safe Perception -- A Hierarchical Monitor Approach [0.0]
本稿では,AIに基づく認識システムのための新しい階層的モニタリング手法を提案する。
検出ミスを確実に検出でき、同時に誤報率も極めて低い。
論文 参考訳(メタデータ) (2022-08-01T13:09:24Z) - A Certifiable Security Patch for Object Tracking in Self-Driving Systems
via Historical Deviation Modeling [22.753164675538457]
自動運転車における物体追跡の安全性に関する最初の体系的研究について述べる。
我々は,KF(Kalman Filter)に基づくメインストリームマルチオブジェクトトラッカー(MOT)が,マルチセンサ融合機構が有効であっても安全でないことを証明した。
我々は、KFベースのMOTのための単純かつ効果的なセキュリティパッチを提案し、その中核は、KFの観測と予測に対する焦点のバランスをとるための適応戦略である。
論文 参考訳(メタデータ) (2022-07-18T12:30:24Z) - Differentiable Control Barrier Functions for Vision-based End-to-End
Autonomous Driving [100.57791628642624]
本稿では,視覚に基づくエンドツーエンド自動運転のための安全保証学習フレームワークを提案する。
我々は、勾配降下によりエンドツーエンドに訓練された微分制御バリア関数(dCBF)を備えた学習システムを設計する。
論文 参考訳(メタデータ) (2022-03-04T16:14:33Z) - CertainNet: Sampling-free Uncertainty Estimation for Object Detection [65.28989536741658]
ニューラルネットワークの不確実性を推定することは、安全クリティカルな設定において基本的な役割を果たす。
本研究では,オブジェクト検出のための新しいサンプリング不要不確実性推定法を提案する。
私たちはそれをCertainNetと呼び、各出力信号に対して、オブジェクト性、クラス、位置、サイズという、別の不確実性を提供するのは、これが初めてです。
論文 参考訳(メタデータ) (2021-10-04T17:59:31Z) - Exploiting Playbacks in Unsupervised Domain Adaptation for 3D Object
Detection [55.12894776039135]
ディープラーニングに基づく最先端の3Dオブジェクト検出器は、有望な精度を示しているが、ドメインの慣用性に過度に適合する傾向がある。
対象領域の擬似ラベルの検出器を微調整することで,このギャップを大幅に削減する新たな学習手法を提案する。
5つの自律運転データセットにおいて、これらの擬似ラベル上の検出器を微調整することで、新しい運転環境への領域ギャップを大幅に減らすことを示す。
論文 参考訳(メタデータ) (2021-03-26T01:18:11Z) - Towards robust sensing for Autonomous Vehicles: An adversarial
perspective [82.83630604517249]
結果として得られる決定が摂動に対して堅牢であることは、最も重要なことです。
敵対的摂動は、意図的に環境や感覚測定の修正を施したものである。
より安全なシステムの構築とデプロイには,センサーシステムの脆弱性を慎重に評価する必要がある。
論文 参考訳(メタデータ) (2020-07-14T05:25:15Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。