論文の概要: Rolling Colors: Adversarial Laser Exploits against Traffic Light
Recognition
- arxiv url: http://arxiv.org/abs/2204.02675v1
- Date: Wed, 6 Apr 2022 08:57:25 GMT
- ステータス: 処理完了
- システム内更新日: 2022-04-07 14:50:25.667196
- Title: Rolling Colors: Adversarial Laser Exploits against Traffic Light
Recognition
- Title(参考訳): ローリングカラー:対向レーザーによる交通光認識への攻撃
- Authors: Chen Yan, Zhijian Xu, Zhanyuan Yin, Xiaoyu Ji, Wenyuan Xu
- Abstract要約: 我々は,レーザ干渉をカメラに隠蔽することで,交通信号認識機構を騙す可能性について検討した。
CMOSセンサのローリングシャッターを利用することで、画像内の信号に重なり合ったカラーストライプを注入し、赤信号が緑信号として認識されるか、その逆で認識される可能性がある。
評価では,レッド・ツー・グリーン攻撃とグリーン・ツー・レッド攻撃の最大成功率は30%と86.25%である。
- 参考スコア(独自算出の注目度): 18.271698365826552
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Traffic light recognition is essential for fully autonomous driving in urban
areas. In this paper, we investigate the feasibility of fooling traffic light
recognition mechanisms by shedding laser interference on the camera. By
exploiting the rolling shutter of CMOS sensors, we manage to inject a color
stripe overlapped on the traffic light in the image, which can cause a red
light to be recognized as a green light or vice versa. To increase the success
rate, we design an optimization method to search for effective laser parameters
based on empirical models of laser interference. Our evaluation in emulated and
real-world setups on 2 state-of-the-art recognition systems and 5 cameras
reports a maximum success rate of 30% and 86.25% for Red-to-Green and
Green-to-Red attacks. We observe that the attack is effective in continuous
frames from more than 40 meters away against a moving vehicle, which may cause
end-to-end impacts on self-driving such as running a red light or emergency
stop. To mitigate the threat, we propose redesigning the rolling shutter
mechanism.
- Abstract(参考訳): 都市部の完全自動運転には交通光認識が不可欠である。
本稿では,レーザ干渉をカメラに隠蔽することで,交通信号認識機構を騙す可能性を検討する。
cmosセンサのローリングシャッターを利用することで、画像内の交通信号に重複するカラーストライプを注入することで、赤信号がグリーンライトとして認識されるか、あるいはその逆になる可能性がある。
成功率を高めるために, レーザ干渉実験モデルに基づいて, 効果的なレーザパラメータを探索するための最適化手法を考案する。
2つの最先端認識システムと5台のカメラのエミュレートと実世界のセットアップにおける評価では、赤と緑と緑と赤のアタックで最大成功率は30%と86.25%であった。
我々は、この攻撃が40メートル以上離れた移動車に対して連続的なフレームで有効であることが観察され、赤信号や緊急停止などの自動運転に終端的な影響をもたらす可能性がある。
脅威を軽減するため, 転がりシャッター機構の再設計を提案する。
関連論文リスト
- GreenEye: Development of Real-Time Traffic Signal Recognition System for Visual Impairments [0.6216023343793144]
グリーンアイシステムは交通信号の色を認識し、歩行者が横断歩道をリアルタイムで横断する時間を伝える。
データ不均衡は低い精度をもたらし、異なるクラス間の画像数を安定させるために追加のラベル付けとデータベース形成が行われた。
論文 参考訳(メタデータ) (2024-10-21T06:27:22Z) - Invisible Optical Adversarial Stripes on Traffic Sign against Autonomous Vehicles [10.17957244747775]
本稿では、発光ダイオードを用いて、カメラのローリングシャッター効果を利用して交通標識認識を誤認する攻撃を提案する。
交通標識のストライプは人間には見えないので、攻撃はステルスです。
本稿では,カメラセンサ,知覚モデル,自律運転システムのレベルにおける対策について論じる。
論文 参考訳(メタデータ) (2024-07-10T09:55:31Z) - LanEvil: Benchmarking the Robustness of Lane Detection to Environmental Illusions [61.87108000328186]
レーン検出(LD)は自律走行システムにおいて不可欠な要素であり、適応型クルーズ制御や自動車線センターなどの基本的な機能を提供している。
既存のLDベンチマークは主に、環境錯覚に対するLDモデルの堅牢性を無視し、一般的なケースを評価することに焦点を当てている。
本稿では、LDに対する環境錯覚による潜在的な脅威について検討し、LanEvilの最初の総合ベンチマークを確立する。
論文 参考訳(メタデータ) (2024-06-03T02:12:27Z) - Infrared Adversarial Car Stickers [18.913361704019973]
実車に適用可能な3次元モデリングに基づく赤外線検出器に対する物理的攻撃法を提案する。
目標は、赤外線対向ステッカーのセットを設計し、さまざまな視角、距離、シーンで赤外線検出器に見えないようにすることだ。
論文 参考訳(メタデータ) (2024-05-16T09:26:19Z) - NiteDR: Nighttime Image De-Raining with Cross-View Sensor Cooperative Learning for Dynamic Driving Scenes [49.92839157944134]
夜間の運転シーンでは、不十分で不均一な照明が暗闇の中でシーンを遮蔽し、画質と可視性が低下する。
雨天時の運転シーンに適した画像デライニング・フレームワークを開発した。
雨の人工物を取り除き、風景表現を豊かにし、有用な情報を復元することを目的としている。
論文 参考訳(メタデータ) (2024-02-28T09:02:33Z) - Invisible Reflections: Leveraging Infrared Laser Reflections to Target
Traffic Sign Perception [25.566091959509986]
道路標識は、速度制限や利得または停止の要件など、局所的に活発な規則を示す。
最近の研究は、標識にステッカーや投影された色のパッチを加えるなど、CAVの誤解釈を引き起こすような攻撃を実証している。
我々は、フィルタレス画像センサの感度を利用した効果的な物理世界攻撃を開発した。
論文 参考訳(メタデータ) (2024-01-07T21:22:42Z) - aUToLights: A Robust Multi-Camera Traffic Light Detection and Tracking
System [6.191246748708665]
我々は、トロント大学の自動運転車であるアルテミスのような自動運転車のための、最近設計された交通信号認識システムについて説明する。
複数のカメラにまたがってボックスレグレッションとトラフィック光の分類を行うためのYOLOv5検出器をデプロイし、観測結果を融合する。
実世界のシナリオにおいて,単一フレーム,単一カメラオブジェクト検出と比較して,より優れた性能を示す。
論文 参考訳(メタデータ) (2023-05-15T14:28:34Z) - Lasers to Events: Automatic Extrinsic Calibration of Lidars and Event
Cameras [67.84498757689776]
本稿では,イベントカメラとライダーの直接校正法について述べる。
フレームベースのカメラインターミディエートおよび/または高精度の手測定への依存を除去する。
論文 参考訳(メタデータ) (2022-07-03T11:05:45Z) - Shadows can be Dangerous: Stealthy and Effective Physical-world
Adversarial Attack by Natural Phenomenon [79.33449311057088]
我々は、非常に一般的な自然現象であるシャドーによって摂動が生じる新しい種類の光対角運動例について研究する。
我々は,シミュレーション環境と実環境の両方において,この新たな攻撃の有効性を広く評価した。
論文 参考訳(メタデータ) (2022-03-08T02:40:18Z) - Multi-Modal Fusion Transformer for End-to-End Autonomous Driving [59.60483620730437]
画像表現とLiDAR表現を注目で統合する,新しいマルチモードフュージョントランスフォーマであるTransFuserを提案する。
本手法は, 衝突を76%低減しつつ, 最先端駆動性能を実現する。
論文 参考訳(メタデータ) (2021-04-19T11:48:13Z) - Drone-based RGB-Infrared Cross-Modality Vehicle Detection via
Uncertainty-Aware Learning [59.19469551774703]
ドローンによる車両検出は、空中画像中の車両の位置とカテゴリーを見つけることを目的としている。
我々はDroneVehicleと呼ばれる大規模ドローンベースのRGB赤外線車両検出データセットを構築した。
私たちのDroneVehicleは28,439RGBの赤外線画像を収集し、都市道路、住宅地、駐車場、その他のシナリオを昼から夜までカバーしています。
論文 参考訳(メタデータ) (2020-03-05T05:29:44Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。