論文の概要: Invisible Reflections: Leveraging Infrared Laser Reflections to Target
Traffic Sign Perception
- arxiv url: http://arxiv.org/abs/2401.03582v1
- Date: Sun, 7 Jan 2024 21:22:42 GMT
- ステータス: 処理完了
- システム内更新日: 2024-01-09 18:16:44.044360
- Title: Invisible Reflections: Leveraging Infrared Laser Reflections to Target
Traffic Sign Perception
- Title(参考訳): 可視反射:赤外レーザー反射を利用した交通信号認識
- Authors: Takami Sato, Sri Hrushikesh Varma Bhupathiraju, Michael Clifford,
Takeshi Sugawara, Qi Alfred Chen, Sara Rampazzi
- Abstract要約: 道路標識は、速度制限や利得または停止の要件など、局所的に活発な規則を示す。
最近の研究は、標識にステッカーや投影された色のパッチを加えるなど、CAVの誤解釈を引き起こすような攻撃を実証している。
我々は、フィルタレス画像センサの感度を利用した効果的な物理世界攻撃を開発した。
- 参考スコア(独自算出の注目度): 25.566091959509986
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: All vehicles must follow the rules that govern traffic behavior, regardless
of whether the vehicles are human-driven or Connected Autonomous Vehicles
(CAVs). Road signs indicate locally active rules, such as speed limits and
requirements to yield or stop. Recent research has demonstrated attacks, such
as adding stickers or projected colored patches to signs, that cause CAV
misinterpretation, resulting in potential safety issues. Humans can see and
potentially defend against these attacks. But humans can not detect what they
can not observe. We have developed an effective physical-world attack that
leverages the sensitivity of filterless image sensors and the properties of
Infrared Laser Reflections (ILRs), which are invisible to humans. The attack is
designed to affect CAV cameras and perception, undermining traffic sign
recognition by inducing misclassification. In this work, we formulate the
threat model and requirements for an ILR-based traffic sign perception attack
to succeed. We evaluate the effectiveness of the ILR attack with real-world
experiments against two major traffic sign recognition architectures on four
IR-sensitive cameras. Our black-box optimization methodology allows the attack
to achieve up to a 100% attack success rate in indoor, static scenarios and a
>80.5% attack success rate in our outdoor, moving vehicle scenarios. We find
the latest state-of-the-art certifiable defense is ineffective against ILR
attacks as it mis-certifies >33.5% of cases. To address this, we propose a
detection strategy based on the physical properties of IR laser reflections
which can detect 96% of ILR attacks.
- Abstract(参考訳): 全ての車両は、車両が人間駆動車かコネクテッド・オートモービルズ(CAV)かに関わらず、交通行動を管理する規則に従う必要がある。
道路標識は、速度制限や利得または停止の要件など、局所的に活発な規則を示す。
最近の研究は、標識にステッカーや投影された色のパッチを加えるなど、CAVの誤解釈を引き起こし、潜在的な安全性の問題を引き起こすような攻撃を実証している。
人間はこれらの攻撃を目撃し、潜在的に防御することができる。
しかし、人間は観察できないものを検出できない。
我々は、フィルタレス画像センサの感度と、人間に見えない赤外線レーザー反射(ilrs)の特性を活用する、効果的な物理世界攻撃を開発した。
この攻撃はcavカメラと認識に影響を与えるよう設計されており、誤分類を誘発することで交通標識認識を損なう。
本研究では,ilrに基づくトラヒックサイン認識攻撃を成功させるために,脅威モデルと要求条件を定式化する。
4つの赤外線感度カメラ上での2つの主要な信号認識アーキテクチャに対する実世界実験によるIRR攻撃の有効性を評価する。
我々のブラックボックス最適化手法により、攻撃は屋内の静的シナリオで最大100%の攻撃成功率、屋外の移動車両シナリオで80.5%の攻撃成功率を達成することができる。
我々は、最新の最先端の認証された防御は、33.5%の症例を誤認するため、IRR攻撃に対して効果がないと考えている。
そこで本研究では、IRレーザー反射の物理的特性に基づいて、IRR攻撃の96%を検出できる検出戦略を提案する。
関連論文リスト
- TPatch: A Triggered Physical Adversarial Patch [19.768494127237393]
音響信号によって引き起こされる物理的対向パッチであるTPatchを提案する。
運転者の疑念を避けるため,コンテンツベースカモフラージュ法と攻撃強化法を提案する。
論文 参考訳(メタデータ) (2023-12-30T06:06:01Z) - Untargeted Backdoor Attack against Object Detection [69.63097724439886]
我々は,タスク特性に基づいて,無目標で毒のみのバックドア攻撃を設計する。
攻撃によって、バックドアがターゲットモデルに埋め込まれると、トリガーパターンでスタンプされたオブジェクトの検出を失う可能性があることを示す。
論文 参考訳(メタデータ) (2022-11-02T17:05:45Z) - Illusory Attacks: Detectability Matters in Adversarial Attacks on
Sequential Decision-Makers [74.8408990716076]
既存の強化学習エージェントに対する観測空間攻撃は共通の弱点を有することを示す。
提案手法は, 有効かつ統計的に検出不可能な, 逐次的意思決定者に対する新たな攻撃形態である完全照準攻撃を導入する。
従来の攻撃と比較すると、R攻撃は自動で検出するのがかなり難しいことが実証されている。
論文 参考訳(メタデータ) (2022-07-20T19:49:09Z) - Rolling Colors: Adversarial Laser Exploits against Traffic Light
Recognition [18.271698365826552]
我々は,レーザ干渉をカメラに隠蔽することで,交通信号認識機構を騙す可能性について検討した。
CMOSセンサのローリングシャッターを利用することで、画像内の信号に重なり合ったカラーストライプを注入し、赤信号が緑信号として認識されるか、その逆で認識される可能性がある。
評価では,レッド・ツー・グリーン攻撃とグリーン・ツー・レッド攻撃の最大成功率は30%と86.25%である。
論文 参考訳(メタデータ) (2022-04-06T08:57:25Z) - Shadows can be Dangerous: Stealthy and Effective Physical-world
Adversarial Attack by Natural Phenomenon [79.33449311057088]
我々は、非常に一般的な自然現象であるシャドーによって摂動が生じる新しい種類の光対角運動例について研究する。
我々は,シミュレーション環境と実環境の両方において,この新たな攻撃の有効性を広く評価した。
論文 参考訳(メタデータ) (2022-03-08T02:40:18Z) - Evaluating the Robustness of Semantic Segmentation for Autonomous
Driving against Real-World Adversarial Patch Attacks [62.87459235819762]
自動運転車のような現実のシナリオでは、現実の敵例(RWAE)にもっと注意を払わなければならない。
本稿では,デジタルおよび実世界の敵対パッチの効果を検証し,一般的なSSモデルのロバスト性を詳細に評価する。
論文 参考訳(メタデータ) (2021-08-13T11:49:09Z) - Targeted Physical-World Attention Attack on Deep Learning Models in Road
Sign Recognition [79.50450766097686]
本稿では,現実の道路標識攻撃に対するTAA手法を提案する。
実験の結果,TAA法は攻撃成功率(約10%)を向上し,RP2法と比較して摂動損失(約4分の1)を減少させることがわかった。
論文 参考訳(メタデータ) (2020-10-09T02:31:34Z) - Dirty Road Can Attack: Security of Deep Learning based Automated Lane
Centering under Physical-World Attack [38.3805893581568]
本研究では,物理世界の敵対的攻撃下での最先端のディープラーニングに基づくALCシステムの安全性について検討する。
安全クリティカルな攻撃目標と、新しいドメイン固有の攻撃ベクトル、汚い道路パッチで問題を定式化する。
実世界の走行トレースから80のシナリオを用いて実運用ALCに対する攻撃を評価した。
論文 参考訳(メタデータ) (2020-09-14T19:22:39Z) - Towards Robust LiDAR-based Perception in Autonomous Driving: General
Black-box Adversarial Sensor Attack and Countermeasures [24.708895480220733]
LiDARをベースとした認識は、被害者の自動運転車の前で敵が偽の車両をスポークする攻撃に対して脆弱である。
我々は、現在のLiDARベースの知覚アーキテクチャの一般的な脆弱性を調査するための最初の研究を行う。
特定された脆弱性に基づいた最初のブラックボックススプーフィング攻撃を構築し、平均成功率の約80%を普遍的に達成した。
論文 参考訳(メタデータ) (2020-06-30T17:07:45Z) - Physically Realizable Adversarial Examples for LiDAR Object Detection [72.0017682322147]
本稿では,LiDAR検出器を騙すために,汎用な3次元対向物体を生成する手法を提案する。
特に,LiDAR検出器から車両を完全に隠蔽するために,車両の屋根上に対向物体を配置し,その成功率は80%であることを示した。
これは、限られたトレーニングデータから見知らぬ条件下での、より安全な自動運転への一歩だ。
論文 参考訳(メタデータ) (2020-04-01T16:11:04Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。