論文の概要: Sequence-Preserving Dual-FoV Defense for Traffic Sign and Light Recognition in Autonomous Vehicles
- arxiv url: http://arxiv.org/abs/2510.02642v1
- Date: Fri, 03 Oct 2025 00:43:25 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-06 16:35:52.217276
- Title: Sequence-Preserving Dual-FoV Defense for Traffic Sign and Light Recognition in Autonomous Vehicles
- Title(参考訳): 自動車における交通信号と光認識のためのシーケンス保存型デュアルFoVディフェンス
- Authors: Abhishek Joshi, Jahnavi Krishna Koda, Abhishek Phadke,
- Abstract要約: 本研究では,米国における信号機と信号機のための二重FoV,シーケンス保存型ロバストネスフレームワークを提案する。
実生活における異常検出の応用に関する一連の実験において、本研究では、統一された3層防御スタックフレームワークの概要を概説する。
- 参考スコア(独自算出の注目度): 0.07646713951724012
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Traffic light and sign recognition are key for Autonomous Vehicles (AVs) because perception mistakes directly influence navigation and safety. In addition to digital adversarial attacks, models are vulnerable to existing perturbations (glare, rain, dirt, or graffiti), which could lead to dangerous misclassifications. The current work lacks consideration of temporal continuity, multistatic field-of-view (FoV) sensing, and robustness to both digital and natural degradation. This study proposes a dual FoV, sequence-preserving robustness framework for traffic lights and signs in the USA based on a multi-source dataset built on aiMotive, Udacity, Waymo, and self-recorded videos from the region of Texas. Mid and long-term sequences of RGB images are temporally aligned for four operational design domains (ODDs): highway, night, rainy, and urban. Over a series of experiments on a real-life application of anomaly detection, this study outlines a unified three-layer defense stack framework that incorporates feature squeezing, defensive distillation, and entropy-based anomaly detection, as well as sequence-wise temporal voting for further enhancement. The evaluation measures included accuracy, attack success rate (ASR), risk-weighted misclassification severity, and confidence stability. Physical transferability was confirmed using probes for recapture. The results showed that the Unified Defense Stack achieved 79.8mAP and reduced the ASR to 18.2%, which is superior to YOLOv8, YOLOv9, and BEVFormer, while reducing the high-risk misclassification to 32%.
- Abstract(参考訳): 交通信号と信号認識は、認識ミスがナビゲーションと安全に直接影響するため、自律走行車(AV)にとって鍵となる。
デジタル敵攻撃に加えて、モデルは既存の摂動(グレア、雨、汚れ、落書き)に弱いため、危険な誤分類につながる可能性がある。
現在の研究は、時間的連続性、マルチスタティック・フィールド・オブ・ビュー(FoV)センシング、およびデジタルと自然の両方の劣化に対する堅牢性を考慮していない。
本研究では、aiMotive, Udacity, Waymo, およびテキサス地域からの自己記録ビデオに基づいて構築されたマルチソースデータセットに基づいて、米国における信号と標識のための二重FoV、シーケンス保存ロバストネスフレームワークを提案する。
RGB画像の中・長期のシーケンスは、ハイウェイ、夜、雨、都市という4つの運用設計領域(ODD)に対して時間的に整列されている。
本研究は, 異常検出の現実的応用に関する一連の実験において, 機能スクイーズ, ディフェンス蒸留, エントロピーに基づく異常検出を組み込んだ統合された3層防御スタックフレームワークについて概説した。
評価には、正確性、攻撃成功率(ASR)、リスク重み付き誤分類重症度、信頼性安定性などが含まれていた。
再捕獲用プローブを用いて物理的移動性を確認した。
その結果、統一防衛スタックは79.8mAPを達成し、ASRを18.2%に減らし、YOLOv8、YOLOv9、BEVFormerよりも優れ、高リスクの誤分類を32%に減らした。
関連論文リスト
- VOGUE: Guiding Exploration with Visual Uncertainty Improves Multimodal Reasoning [62.09195763860549]
検証可能な報酬(RLVR)による強化学習は、大きな言語モデル(LLM)の推論を改善するが、探索に苦労する。
出力(テキスト)から入力(視覚)空間へ探索をシフトする新しい手法である$textbfVOGUE(Visual Uncertainty Guided Exploration)を紹介した。
本研究は,視覚入力の本質的不確実性における基盤探索が,マルチモーダル推論を改善するための効果的な戦略であることを示す。
論文 参考訳(メタデータ) (2025-10-01T20:32:08Z) - RoSe: Robust Self-supervised Stereo Matching under Adverse Weather Conditions [58.37558408672509]
本稿では,ロバストな自己監督型環境対応学習と悪天候蒸留という2つの重要なステップからなる,堅牢な自己監督型訓練パラダイムを提案する。
提案手法の有効性と汎用性を実証し,既存の最先端の自己管理手法より優れていることを示す。
論文 参考訳(メタデータ) (2025-09-23T15:41:40Z) - Temporal Misalignment Attacks against Multimodal Perception in Autonomous Driving [23.83773255227831]
DejaVuは車載ネットワークを利用して、センサストリーム間の遅延を誘導し、微妙な時間的ミスアライメントを生成する攻撃である。
包括的攻撃分析により,センサのタスク特異的な不均衡感が明らかになった。
シングルフレームのLiDAR遅延では、攻撃者は車検出のmAPを最大88.5%削減し、3フレームのカメラ遅延、車滴の多重物体追跡精度(MOTA)を73%削減できる。
論文 参考訳(メタデータ) (2025-07-12T00:44:26Z) - Robustifying 3D Perception via Least-Squares Graphs for Multi-Agent Object Tracking [43.11267507022928]
本稿では,3次元LiDARシーンにおける対向雑音に対する新たな緩和フレームワークを提案する。
我々は最小二乗グラフツールを用いて各検出の遠心点の位置誤差を低減する。
実世界のV2V4Realデータセットに関する広範な評価研究は、提案手法がシングルエージェントとマルチエージェントの両方のトラッキングフレームワークよりも大幅に優れていることを示す。
論文 参考訳(メタデータ) (2025-07-07T08:41:08Z) - NOVA: Navigation via Object-Centric Visual Autonomy for High-Speed Target Tracking in Unstructured GPS-Denied Environments [56.35569661650558]
我々はNOVAというオブジェクト中心のフレームワークを導入し、ロバストな目標追跡と衝突認識ナビゲーションを可能にした。
グローバルマップを構築するのではなく、NOVAはターゲットの参照フレーム内での知覚、推定、制御を定式化する。
我々は,都市迷路や森林の小道,間欠的なGPS損失を伴う建物内の繰り返し遷移など,現実の挑戦的なシナリオにまたがってNOVAを検証する。
論文 参考訳(メタデータ) (2025-06-23T14:28:30Z) - Natural Reflection Backdoor Attack on Vision Language Model for Autonomous Driving [55.96227460521096]
視覚言語モデル(VLM)は推論能力を高めるために自律運転システムに統合されている。
本稿では,自律運転シナリオにおけるVLMシステムを対象とした自然反射型バックドアアタックを提案する。
我々の発見は、自動運転の厳しいリアルタイム要求を生かした、新たなタイプの攻撃を発見しました。
論文 参考訳(メタデータ) (2025-05-09T20:28:17Z) - Black-Box Adversarial Attack on Vision Language Models for Autonomous Driving [65.61999354218628]
我々は、自律運転システムにおいて、視覚言語モデル(VLM)をターゲットとしたブラックボックス敵攻撃を設計する第一歩を踏み出す。
セマンティクスの生成と注入による低レベル推論の分解を目標とするカスケーディング・アディバーショナル・ディスラプション(CAD)を提案する。
本稿では,高レベルリスクシナリオの理解と構築に代理VLMを活用することで,動的適応に対処するリスクシーンインジェクションを提案する。
論文 参考訳(メタデータ) (2025-01-23T11:10:02Z) - ADoPT: LiDAR Spoofing Attack Detection Based on Point-Level Temporal
Consistency [11.160041268858773]
ディープニューラルネットワーク(DNN)は、自動運転車(AV)のためのLiDARベースの知覚システムにますます統合されている
我々は,攻撃者がLiDARデータに偽のオブジェクトを注入し,その環境を誤解釈して誤った判断を下すという,LiDAR偽造攻撃の課題に対処することを目指している。
ADoPT (Anomaly Detection based on Point-level Temporal consistency) は、連続するフレーム間の時間的一貫性を定量的に測定し、ポイントクラスタのコヒーレンシーに基づいて異常物体を同定する。
nuScenesデータセットを用いた評価では、アルゴリズムは様々なLiDARスプーフィング攻撃に対して効果的に対応し、低(低)を実現している。
論文 参考訳(メタデータ) (2023-10-23T02:31:31Z) - Ada3Diff: Defending against 3D Adversarial Point Clouds via Adaptive
Diffusion [70.60038549155485]
ディープ3Dポイントクラウドモデルは敵攻撃に敏感であり、自律運転のような安全クリティカルなアプリケーションに脅威をもたらす。
本稿では,適応強度推定器と拡散モデルを用いて,プリスタンデータ分布を再構築できる新しい歪み認識型防衛フレームワークを提案する。
論文 参考訳(メタデータ) (2022-11-29T14:32:43Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。