論文の概要: EyeDAS: Securing Perception of Autonomous Cars Against the
Stereoblindness Syndrome
- arxiv url: http://arxiv.org/abs/2205.06765v1
- Date: Fri, 13 May 2022 16:53:24 GMT
- ステータス: 処理完了
- システム内更新日: 2022-05-16 14:51:57.835837
- Title: EyeDAS: Securing Perception of Autonomous Cars Against the
Stereoblindness Syndrome
- Title(参考訳): EyeDAS:tereoblindness syndromeに対する自律走行車の認識の確保
- Authors: Efrat Levy, Ben Nassi, Raz Swissa and Yuval Elovici
- Abstract要約: 我々は,物体検出装置(OD)を自律運転用に確保することを目的とした,数発の学習に基づく新しい手法であるEyeDASを提案する。
運転席からダッシュカメラで撮影した7本のYouTubeビデオ映像から2000点のオブジェクトを抽出し,EyeDASのリアルタイム性能を評価する。
- 参考スコア(独自算出の注目度): 36.39622328877822
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The ability to detect whether an object is a 2D or 3D object is extremely
important in autonomous driving, since a detection error can have
life-threatening consequences, endangering the safety of the driver,
passengers, pedestrians, and others on the road. Methods proposed to
distinguish between 2 and 3D objects (e.g., liveness detection methods) are not
suitable for autonomous driving, because they are object dependent or do not
consider the constraints associated with autonomous driving (e.g., the need for
real-time decision-making while the vehicle is moving). In this paper, we
present EyeDAS, a novel few-shot learning-based method aimed at securing an
object detector (OD) against the threat posed by the stereoblindness syndrome
(i.e., the inability to distinguish between 2D and 3D objects). We evaluate
EyeDAS's real-time performance using 2,000 objects extracted from seven YouTube
video recordings of street views taken by a dash cam from the driver's seat
perspective. When applying EyeDAS to seven state-of-the-art ODs as a
countermeasure, EyeDAS was able to reduce the 2D misclassification rate from
71.42-100% to 2.4% with a 3D misclassification rate of 0% (TPR of 1.0). We also
show that EyeDAS outperforms the baseline method and achieves an AUC of over
0.999 and a TPR of 1.0 with an FPR of 0.024.
- Abstract(参考訳): 物体が2dまたは3dの物体であるかどうかを検知する能力は、運転者、乗客、歩行者などの安全を危険にさらすなど、自動運転において極めて重要である。
2次元物体と3次元物体を区別する手法(例えば、生存度検出法)は、物体に依存したり、自律運転に関連する制約(例えば、車両が動いている最中のリアルタイム意思決定の必要性)を考慮していないため、自律運転には適さない。
本稿では,物体検出装置(OD)をステレオブラインドネス症候群(すなわち,2次元物体と3次元物体を区別できない)の脅威に対して確保することを目的とした,新しい数発学習方式であるEyeDASを提案する。
運転席からダッシュカメラで撮影した7本のYouTubeビデオ映像から2000個のオブジェクトを抽出し,EyeDASのリアルタイム性能を評価する。
対策としてEyeDASを7種類の最先端ODに適用すると、EyeDASは2D誤分類率を71.42-100%から2.4%に下げることができた(TPRは1.0)。
また、EyeDASはベースライン法よりも優れ、0.999以上のAUCと1.0のTPRを0.024のFPRで達成している。
関連論文リスト
- UniPAD: A Universal Pre-training Paradigm for Autonomous Driving [76.34459337397494]
3次元微分レンダリングを応用した新しい自己教師型学習パラダイムUniPADを提案する。
UniPADは暗黙的に3D空間を符号化し、連続した3D形状の構造の再構築を容易にする。
本手法はライダーカメラ,カメラカメラ,ライダーカメラベースラインを9.1,7.7,6.9 NDSで大幅に改善する。
論文 参考訳(メタデータ) (2023-10-12T14:39:58Z) - Threat Detection In Self-Driving Vehicles Using Computer Vision [0.0]
ダッシュカムビデオを用いた自動運転車の脅威検出機構を提案する。
オブジェクトを識別するためのYOLO,高度な車線検出アルゴリズム,カメラからの距離を測定するマルチレグレッションモデルという,4つの主要なコンポーネントがある。
提案した脅威検出モデル(TDM)の最終的な精度は82.65%である。
論文 参考訳(メタデータ) (2022-09-06T12:01:07Z) - Physical Attack on Monocular Depth Estimation with Optimal Adversarial
Patches [18.58673451901394]
我々は学習に基づく単眼深度推定(MDE)に対する攻撃を開発する。
我々は,攻撃のステルス性と有効性を,オブジェクト指向の対角設計,感度領域の局所化,自然スタイルのカモフラージュとバランスさせる。
実験結果から,本手法は,異なる対象オブジェクトやモデルに対して,ステルス性,有効,堅牢な逆パッチを生成できることが示唆された。
論文 参考訳(メタデータ) (2022-07-11T08:59:09Z) - BlindSpotNet: Seeing Where We Cannot See [20.689816289568718]
道路景観理解のための重要な視覚課題として,2次元目視点推定を導入する。
車両のバンテージポイントから隠された道路領域を自動的に検出することにより、手動運転者や自動運転システムが事故の潜在的な原因に積極的に警告することができる。
論文 参考訳(メタデータ) (2022-07-08T12:54:18Z) - CODA: A Real-World Road Corner Case Dataset for Object Detection in
Autonomous Driving [117.87070488537334]
我々は、ビジョンベース検出器のこの重要な問題を露呈する、CODAという挑戦的なデータセットを導入する。
大規模自動運転データセットで訓練された標準物体検出器の性能は、mARの12.8%以下に著しく低下した。
我々は最先端のオープンワールドオブジェクト検出器を実験し、CODAの新しいオブジェクトを確実に識別できないことを発見した。
論文 参考訳(メタデータ) (2022-03-15T08:32:56Z) - Urban Traffic Surveillance (UTS): A fully probabilistic 3D tracking
approach based on 2D detections [11.34426502082293]
都市交通監視(Urban Traffic Surveillance、UTS)は、モノクロカメラとキャリブレーションカメラをベースとした監視システムである。
UTSは3Dバウンディングボックス表現と物理的に合理的な3Dモーションモデルを用いて車両を追跡している。
論文 参考訳(メタデータ) (2021-05-31T14:29:02Z) - Fine-Grained Vehicle Perception via 3D Part-Guided Visual Data
Augmentation [77.60050239225086]
実画像中の車両に動的部品を付加した3次元自動車モデルによる効果的なトレーニングデータ生成プロセスを提案する。
私達のアプローチは人間の相互作用なしで完全に自動です。
VUS解析用マルチタスクネットワークとVHI解析用マルチストリームネットワークを提案する。
論文 参考訳(メタデータ) (2020-12-15T03:03:38Z) - Physically Realizable Adversarial Examples for LiDAR Object Detection [72.0017682322147]
本稿では,LiDAR検出器を騙すために,汎用な3次元対向物体を生成する手法を提案する。
特に,LiDAR検出器から車両を完全に隠蔽するために,車両の屋根上に対向物体を配置し,その成功率は80%であることを示した。
これは、限られたトレーニングデータから見知らぬ条件下での、より安全な自動運転への一歩だ。
論文 参考訳(メタデータ) (2020-04-01T16:11:04Z) - Road Curb Detection and Localization with Monocular Forward-view Vehicle
Camera [74.45649274085447]
魚眼レンズを装着した校正単眼カメラを用いて3Dパラメータを推定するロバストな手法を提案する。
我々のアプローチでは、車両が90%以上の精度で、リアルタイムで距離を抑えることができる。
論文 参考訳(メタデータ) (2020-02-28T00:24:18Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。