論文の概要: Horus: Using Sensor Fusion to Combine Infrastructure and On-board
Sensing to Improve Autonomous Vehicle Safety
- arxiv url: http://arxiv.org/abs/2009.03458v1
- Date: Mon, 7 Sep 2020 23:52:57 GMT
- ステータス: 翻訳完了
- システム内更新日: 2022-10-21 03:32:35.371620
- Title: Horus: Using Sensor Fusion to Combine Infrastructure and On-board
Sensing to Improve Autonomous Vehicle Safety
- Title(参考訳): horus: インフラストラクチャとオンボードセンシングを組み合わせたセンサ融合による自動運転車の安全性向上
- Authors: Sanjay Seshan
- Abstract要約: 自動運転車の需要は2019年から2026年の間に10倍になると予想されている。
最近の顕著な事故は、この技術に対する消費者の信頼に大きく影響している。
私はHorusというシステムを開発しました。車載とインフラベースのセンサーを組み合わせて、環境のより完全なビューを提供します。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Studies predict that demand for autonomous vehicles will increase tenfold
between 2019 and 2026. However, recent high-profile accidents have
significantly impacted consumer confidence in this technology. The cause for
many of these accidents can be traced back to the inability of these vehicles
to correctly sense the impending danger. In response, manufacturers have been
improving the already extensive on-vehicle sensor packages to ensure that the
system always has access to the data necessary to ensure safe navigation.
However, these sensor packages only provide a view from the vehicle's
perspective and, as a result, autonomous vehicles still require frequent human
intervention to ensure safety.
To address this issue, I developed a system, called Horus, that combines
on-vehicle and infrastructure-based sensors to provide a more complete view of
the environment, including areas not visible from the vehicle. I built a
small-scale experimental testbed as a proof of concept. My measurements of the
impact of sensor failures showed that even short outages (1 second) at slow
speeds (25 km/hr scaled velocity) prevents vehicles that rely on on-vehicle
sensors from navigating properly. My experiments also showed that Horus
dramatically improves driving safety and that the sensor fusion algorithm
selected plays a significant role in the quality of the navigation. With just a
pair of infrastructure sensors, Horus could tolerate sensors that fail 40% of
the time and still navigate safely. These results are a promising first step
towards safer autonomous vehicles.
- Abstract(参考訳): 研究は、自動運転車の需要が2019年から2026年の間に10倍に増加すると予想している。
しかし、最近の顕著な事故は、この技術に対する消費者の信頼に大きく影響している。
これらの事故の原因の多くは、差し迫った危険を正確に感知できないことにまで遡ることができる。
これに対し、メーカーは車載センサーのパッケージを改良し、安全ナビゲーションに必要なデータへのアクセスを常に確保している。
しかし、これらのセンサーパッケージは車両の視点からしか見えず、その結果、自動運転車は安全を確保するために頻繁に人間の介入を必要とする。
この問題に対処するため、私はHorusというシステムを開発しました。車載とインフラベースのセンサーを組み合わせて、車から見えない領域を含む環境をより完全なビューにします。
概念実証として、小さな実験ベッドを作りました。
センサー故障の影響を計測したところ、遅い速度(25km/hrの速度)で1秒の停止でも、車載センサーに頼っている車両が適切に走行できないことがわかった。
私の実験では、Horusは運転安全性を劇的に改善し、選択したセンサー融合アルゴリズムがナビゲーションの品質に重要な役割を果たすことも示しました。
たった一対のインフラストラクチャセンサーを使えば、horusは40%の時間を失敗しても安全に移動できるセンサーを許容できる。
これらの結果は、より安全な自動運転車に向けた有望な第一歩だ。
関連論文リスト
- Safe Road-Crossing by Autonomous Wheelchairs: a Novel Dataset and its Experimental Evaluation [42.90509901417468]
自動車椅子と空飛ぶドローンで構成されるシステムにおいて,道路横断決定を支援するマルチセンサ融合方式を提案する。
概念実証として,複数センサの利点を示す実験室環境の評価を行った。
この研究は欧州のプロジェクトREXASI-PROの文脈で開発され、モビリティを低下させた人々のソーシャルナビゲーションのための信頼できる人工知能の開発を目的としている。
論文 参考訳(メタデータ) (2024-03-13T22:19:06Z) - Enhancing Road Safety through Accurate Detection of Hazardous Driving
Behaviors with Graph Convolutional Recurrent Networks [0.2578242050187029]
グラフ畳み込み長短期記憶ネットワーク(GConvLSTM)に基づく信頼性駆動行動検出(DBD)システムを提案する。
提案モデルでは,公共センサの精度97.5%,非公共センサの平均精度98.1%を達成し,両者の整合性と精度を示した。
提案システムは,道路の安全向上と運転ミスによる事故件数削減に有効である可能性が示唆された。
論文 参考訳(メタデータ) (2023-05-08T21:05:36Z) - Camera-Radar Perception for Autonomous Vehicles and ADAS: Concepts,
Datasets and Metrics [77.34726150561087]
本研究の目的は、ADASおよび自動運転車のカメラおよびレーダーによる認識の現在のシナリオに関する研究を行うことである。
両センサと融合に関する概念と特徴を提示する。
本稿では、ディープラーニングに基づく検出とセグメンテーションタスクの概要と、車両の認識における主要なデータセット、メトリクス、課題、オープンな質問について説明する。
論文 参考訳(メタデータ) (2023-03-08T00:48:32Z) - Safety-Enhanced Autonomous Driving Using Interpretable Sensor Fusion
Transformer [28.15612357340141]
我々は、InterFuser(Interpretable Sensor Fusion Transformer)という安全強化型自律走行フレームワークを提案する。
我々は、総合的なシーン理解と対向事象検出を実現するために、マルチモーダル・マルチビューセンサーからの情報を処理し、融合する。
私たちのフレームワークは、よりセマンティクスを提供し、安全なセット内のアクションをよりよく制約するために利用されます。
論文 参考訳(メタデータ) (2022-07-28T11:36:21Z) - Drone Detection and Tracking in Real-Time by Fusion of Different Sensing
Modalities [66.4525391417921]
マルチセンサ・ドローン検知システムの設計と評価を行う。
われわれのソリューションは、魚眼カメラを統合し、空の広い部分を監視し、他のカメラを興味ある対象に向けて操縦する。
このサーマルカメラは、たとえこのカメラが解像度が低いとしても、ビデオカメラと同じくらい実現可能なソリューションであることが示されている。
論文 参考訳(メタデータ) (2022-07-05T10:00:58Z) - Sensor Data Validation and Driving Safety in Autonomous Driving Systems [0.9137554315375922]
先進的なセンサーとディープラーニングモデルは、最近発明された攻撃方法の傾向がある。
本稿では,車載センサの攻撃に対する検出方法と,攻撃されたディープラーニングモデルと自動運転車の運転安全性の関連性について検討する。
論文 参考訳(メタデータ) (2022-03-30T08:17:14Z) - Safety-aware Motion Prediction with Unseen Vehicles for Autonomous
Driving [104.32241082170044]
本研究では,無人運転用無人車を用いた新しい作業,安全を意識した動作予測手法について検討する。
既存の車両の軌道予測タスクとは異なり、占有率マップの予測が目的である。
私たちのアプローチは、ほとんどの場合、目に見えない車両の存在を予測できる最初の方法です。
論文 参考訳(メタデータ) (2021-09-03T13:33:33Z) - Complex-valued Convolutional Neural Networks for Enhanced Radar Signal
Denoising and Interference Mitigation [73.0103413636673]
本稿では,レーダセンサ間の相互干渉問題に対処するために,複合価値畳み込みニューラルネットワーク(CVCNN)を提案する。
CVCNNはデータ効率を高め、ネットワークトレーニングを高速化し、干渉除去時の位相情報の保存を大幅に改善する。
論文 参考訳(メタデータ) (2021-04-29T10:06:29Z) - AdvSim: Generating Safety-Critical Scenarios for Self-Driving Vehicles [76.46575807165729]
我々は,任意のLiDARベースの自律システムに対して,安全クリティカルなシナリオを生成するための,敵対的フレームワークであるAdvSimを提案する。
センサデータから直接シミュレートすることにより、完全な自律スタックに対して安全クリティカルな敵シナリオを得る。
論文 参考訳(メタデータ) (2021-01-16T23:23:12Z) - Towards robust sensing for Autonomous Vehicles: An adversarial
perspective [82.83630604517249]
結果として得られる決定が摂動に対して堅牢であることは、最も重要なことです。
敵対的摂動は、意図的に環境や感覚測定の修正を施したものである。
より安全なシステムの構築とデプロイには,センサーシステムの脆弱性を慎重に評価する必要がある。
論文 参考訳(メタデータ) (2020-07-14T05:25:15Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。