論文の概要: EyeDAS: Securing Perception of Autonomous Cars Against the
Stereoblindness Syndrome
- arxiv url: http://arxiv.org/abs/2205.06765v1
- Date: Fri, 13 May 2022 16:53:24 GMT
- ステータス: 処理完了
- システム内更新日: 2022-05-16 14:51:57.835837
- Title: EyeDAS: Securing Perception of Autonomous Cars Against the
Stereoblindness Syndrome
- Title(参考訳): EyeDAS:tereoblindness syndromeに対する自律走行車の認識の確保
- Authors: Efrat Levy, Ben Nassi, Raz Swissa and Yuval Elovici
- Abstract要約: 我々は,物体検出装置(OD)を自律運転用に確保することを目的とした,数発の学習に基づく新しい手法であるEyeDASを提案する。
運転席からダッシュカメラで撮影した7本のYouTubeビデオ映像から2000点のオブジェクトを抽出し,EyeDASのリアルタイム性能を評価する。
- 参考スコア(独自算出の注目度): 36.39622328877822
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The ability to detect whether an object is a 2D or 3D object is extremely
important in autonomous driving, since a detection error can have
life-threatening consequences, endangering the safety of the driver,
passengers, pedestrians, and others on the road. Methods proposed to
distinguish between 2 and 3D objects (e.g., liveness detection methods) are not
suitable for autonomous driving, because they are object dependent or do not
consider the constraints associated with autonomous driving (e.g., the need for
real-time decision-making while the vehicle is moving). In this paper, we
present EyeDAS, a novel few-shot learning-based method aimed at securing an
object detector (OD) against the threat posed by the stereoblindness syndrome
(i.e., the inability to distinguish between 2D and 3D objects). We evaluate
EyeDAS's real-time performance using 2,000 objects extracted from seven YouTube
video recordings of street views taken by a dash cam from the driver's seat
perspective. When applying EyeDAS to seven state-of-the-art ODs as a
countermeasure, EyeDAS was able to reduce the 2D misclassification rate from
71.42-100% to 2.4% with a 3D misclassification rate of 0% (TPR of 1.0). We also
show that EyeDAS outperforms the baseline method and achieves an AUC of over
0.999 and a TPR of 1.0 with an FPR of 0.024.
- Abstract(参考訳): 物体が2dまたは3dの物体であるかどうかを検知する能力は、運転者、乗客、歩行者などの安全を危険にさらすなど、自動運転において極めて重要である。
2次元物体と3次元物体を区別する手法(例えば、生存度検出法)は、物体に依存したり、自律運転に関連する制約(例えば、車両が動いている最中のリアルタイム意思決定の必要性)を考慮していないため、自律運転には適さない。
本稿では,物体検出装置(OD)をステレオブラインドネス症候群(すなわち,2次元物体と3次元物体を区別できない)の脅威に対して確保することを目的とした,新しい数発学習方式であるEyeDASを提案する。
運転席からダッシュカメラで撮影した7本のYouTubeビデオ映像から2000個のオブジェクトを抽出し,EyeDASのリアルタイム性能を評価する。
対策としてEyeDASを7種類の最先端ODに適用すると、EyeDASは2D誤分類率を71.42-100%から2.4%に下げることができた(TPRは1.0)。
また、EyeDASはベースライン法よりも優れ、0.999以上のAUCと1.0のTPRを0.024のFPRで達成している。
関連論文リスト
- Uncertainty Estimation for 3D Object Detection via Evidential Learning [63.61283174146648]
本稿では,3次元検出器における鳥の視線表示における明らかな学習損失を利用して,3次元物体検出の不確かさを定量化するためのフレームワークを提案する。
本研究では,これらの不確実性評価の有効性と重要性を,分布外シーンの特定,局所化の不十分な物体の発見,および(偽陰性)検出の欠如について示す。
論文 参考訳(メタデータ) (2024-10-31T13:13:32Z) - Discovering New Shadow Patterns for Black-Box Attacks on Lane Detection of Autonomous Vehicles [2.5539742994571037]
本稿では,実世界逆転例(AE)を創出するための新しいアプローチを提案する。
負の影: 戦略的に日光を遮り、人工車線のようなパターンを放つ道路上の光の偽りのパターン。
20メートルの負の影を使って、10mph以上の速度で100%違反率で車両をオフロードに誘導することができる。
衝突を引き起こすような他の攻撃シナリオは、少なくとも30mの負の影で実行でき、60-100%の成功率を達成することができる。
論文 参考訳(メタデータ) (2024-09-26T19:43:52Z) - LanEvil: Benchmarking the Robustness of Lane Detection to Environmental Illusions [61.87108000328186]
レーン検出(LD)は自律走行システムにおいて不可欠な要素であり、適応型クルーズ制御や自動車線センターなどの基本的な機能を提供している。
既存のLDベンチマークは主に、環境錯覚に対するLDモデルの堅牢性を無視し、一般的なケースを評価することに焦点を当てている。
本稿では、LDに対する環境錯覚による潜在的な脅威について検討し、LanEvilの最初の総合ベンチマークを確立する。
論文 参考訳(メタデータ) (2024-06-03T02:12:27Z) - UniPAD: A Universal Pre-training Paradigm for Autonomous Driving [74.34701012543968]
3次元微分レンダリングを応用した新しい自己教師型学習パラダイムUniPADを提案する。
UniPADは暗黙的に3D空間を符号化し、連続した3D形状の構造の再構築を容易にする。
本手法はライダーカメラ,カメラカメラ,ライダーカメラベースラインを9.1,7.7,6.9 NDSで大幅に改善する。
論文 参考訳(メタデータ) (2023-10-12T14:39:58Z) - Threat Detection In Self-Driving Vehicles Using Computer Vision [0.0]
ダッシュカムビデオを用いた自動運転車の脅威検出機構を提案する。
オブジェクトを識別するためのYOLO,高度な車線検出アルゴリズム,カメラからの距離を測定するマルチレグレッションモデルという,4つの主要なコンポーネントがある。
提案した脅威検出モデル(TDM)の最終的な精度は82.65%である。
論文 参考訳(メタデータ) (2022-09-06T12:01:07Z) - BlindSpotNet: Seeing Where We Cannot See [20.689816289568718]
道路景観理解のための重要な視覚課題として,2次元目視点推定を導入する。
車両のバンテージポイントから隠された道路領域を自動的に検出することにより、手動運転者や自動運転システムが事故の潜在的な原因に積極的に警告することができる。
論文 参考訳(メタデータ) (2022-07-08T12:54:18Z) - Physically Realizable Adversarial Examples for LiDAR Object Detection [72.0017682322147]
本稿では,LiDAR検出器を騙すために,汎用な3次元対向物体を生成する手法を提案する。
特に,LiDAR検出器から車両を完全に隠蔽するために,車両の屋根上に対向物体を配置し,その成功率は80%であることを示した。
これは、限られたトレーニングデータから見知らぬ条件下での、より安全な自動運転への一歩だ。
論文 参考訳(メタデータ) (2020-04-01T16:11:04Z) - Road Curb Detection and Localization with Monocular Forward-view Vehicle
Camera [74.45649274085447]
魚眼レンズを装着した校正単眼カメラを用いて3Dパラメータを推定するロバストな手法を提案する。
我々のアプローチでは、車両が90%以上の精度で、リアルタイムで距離を抑えることができる。
論文 参考訳(メタデータ) (2020-02-28T00:24:18Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。