論文の概要: Invisible Optical Adversarial Stripes on Traffic Sign against Autonomous Vehicles
- arxiv url: http://arxiv.org/abs/2407.07510v1
- Date: Wed, 10 Jul 2024 09:55:31 GMT
- ステータス: 処理完了
- システム内更新日: 2024-07-11 17:11:48.797942
- Title: Invisible Optical Adversarial Stripes on Traffic Sign against Autonomous Vehicles
- Title(参考訳): 自動運転車に対する交通信号における可視光対角線
- Authors: Dongfang Guo, Yuting Wu, Yimin Dai, Pengfei Zhou, Xin Lou, Rui Tan,
- Abstract要約: 本稿では、発光ダイオードを用いて、カメラのローリングシャッター効果を利用して交通標識認識を誤認する攻撃を提案する。
交通標識のストライプは人間には見えないので、攻撃はステルスです。
本稿では,カメラセンサ,知覚モデル,自律運転システムのレベルにおける対策について論じる。
- 参考スコア(独自算出の注目度): 10.17957244747775
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Camera-based computer vision is essential to autonomous vehicle's perception. This paper presents an attack that uses light-emitting diodes and exploits the camera's rolling shutter effect to create adversarial stripes in the captured images to mislead traffic sign recognition. The attack is stealthy because the stripes on the traffic sign are invisible to human. For the attack to be threatening, the recognition results need to be stable over consecutive image frames. To achieve this, we design and implement GhostStripe, an attack system that controls the timing of the modulated light emission to adapt to camera operations and victim vehicle movements. Evaluated on real testbeds, GhostStripe can stably spoof the traffic sign recognition results for up to 94\% of frames to a wrong class when the victim vehicle passes the road section. In reality, such attack effect may fool victim vehicles into life-threatening incidents. We discuss the countermeasures at the levels of camera sensor, perception model, and autonomous driving system.
- Abstract(参考訳): カメラベースのコンピュータビジョンは、自動運転車の認識に不可欠である。
本稿では, 発光ダイオードを用いて, カメラのローリングシャッター効果を利用して, 撮像画像中の逆ストリップを生成し, 信号認識を誤認する攻撃について述べる。
交通標識のストライプは人間には見えないので、攻撃はステルスです。
攻撃が脅威となるためには、連続した画像フレーム上で認識結果を安定させる必要がある。
そこで我々は,カメラ操作や車両の動作に適応するために,変調発光のタイミングを制御する攻撃システムであるGhostStripeを設計,実装した。
実際のテストベッドで評価すると、GhostStripeは、被害者の車両が道路区間を通過する際に、トラフィックサインの認識結果を94 %のフレームで間違ったクラスに安定してスプールすることができる。
実際には、このような攻撃効果は、被害者の車両を危険に晒す事故に騙す可能性がある。
本稿では,カメラセンサ,知覚モデル,自律運転システムのレベルにおける対策について論じる。
関連論文リスト
- Time Traveling to Defend Against Adversarial Example Attacks in Image Classification [10.353892677735212]
敵の例による攻撃は、機械学習にとって重要な脅威として浮上している。
画像分類における敵対的攻撃は、画像分類ニューラルネットワークを混乱させる画像への様々な小さな修正を悪用する。
この研究は「タイムトラベル」の概念を導入し、誰にでもアクセス可能な歴史的ストリートビュー画像を用いて、同じ標識の異なる過去のバージョンで推論を行う。
論文 参考訳(メタデータ) (2024-10-10T19:56:28Z) - STOP! Camera Spoofing via the in-Vehicle IP Network [4.14360329494344]
我々は、GigE Visionプロトコルを利用するアタックツールを作成します。
次に、2種類の受動異常検知器を解析し、そのような攻撃を識別する。
本稿では,映像伝送中にカメラパラメータをランダムに調整する新しいアクティブディフェンス機構を提案する。
論文 参考訳(メタデータ) (2024-10-07T18:30:22Z) - Invisible Reflections: Leveraging Infrared Laser Reflections to Target
Traffic Sign Perception [25.566091959509986]
道路標識は、速度制限や利得または停止の要件など、局所的に活発な規則を示す。
最近の研究は、標識にステッカーや投影された色のパッチを加えるなど、CAVの誤解釈を引き起こすような攻撃を実証している。
我々は、フィルタレス画像センサの感度を利用した効果的な物理世界攻撃を開発した。
論文 参考訳(メタデータ) (2024-01-07T21:22:42Z) - TPatch: A Triggered Physical Adversarial Patch [19.768494127237393]
音響信号によって引き起こされる物理的対向パッチであるTPatchを提案する。
運転者の疑念を避けるため,コンテンツベースカモフラージュ法と攻撃強化法を提案する。
論文 参考訳(メタデータ) (2023-12-30T06:06:01Z) - Reinforcement Learning based Cyberattack Model for Adaptive Traffic
Signal Controller in Connected Transportation Systems [61.39400591328625]
接続輸送システムにおいて、適応交通信号制御装置(ATSC)は、車両から受信したリアルタイム車両軌跡データを利用して、グリーンタイムを規制する。
この無線接続されたATSCはサイバー攻撃面を増やし、その脆弱性を様々なサイバー攻撃モードに拡大する。
そのようなモードの1つは、攻撃者がネットワーク内で偽の車両を作成する「シビル」攻撃である。
RLエージェントは、シビル車噴射の最適速度を学習し、アプローチの混雑を生じさせるように訓練される
論文 参考訳(メタデータ) (2022-10-31T20:12:17Z) - Shadows can be Dangerous: Stealthy and Effective Physical-world
Adversarial Attack by Natural Phenomenon [79.33449311057088]
我々は、非常に一般的な自然現象であるシャドーによって摂動が生じる新しい種類の光対角運動例について研究する。
我々は,シミュレーション環境と実環境の両方において,この新たな攻撃の有効性を広く評価した。
論文 参考訳(メタデータ) (2022-03-08T02:40:18Z) - Signal Injection Attacks against CCD Image Sensors [20.892354746682223]
我々は,CCDイメージセンサが捉えた画像情報を操作するために,電磁エマニュエーションをどのように利用できるかを示す。
以上の結果から,インジェクトされた歪みが視覚に基づく自律的知能システムを破壊する可能性が示唆された。
論文 参考訳(メタデータ) (2021-08-19T19:05:28Z) - Evaluating the Robustness of Semantic Segmentation for Autonomous
Driving against Real-World Adversarial Patch Attacks [62.87459235819762]
自動運転車のような現実のシナリオでは、現実の敵例(RWAE)にもっと注意を払わなければならない。
本稿では,デジタルおよび実世界の敵対パッチの効果を検証し,一般的なSSモデルのロバスト性を詳細に評価する。
論文 参考訳(メタデータ) (2021-08-13T11:49:09Z) - Self-Supervised Steering Angle Prediction for Vehicle Control Using
Visual Odometry [55.11913183006984]
視覚オドメトリー法を用いて推定したカメラポーズを用いて,車両の軌道制御をモデルに訓練する方法を示す。
車両の前方にカメラを設置することにより,複数の異なる走行経路からの軌跡情報を活用するスケーラブルなフレームワークを提案する。
論文 参考訳(メタデータ) (2021-03-20T16:29:01Z) - Exploring Adversarial Robustness of Multi-Sensor Perception Systems in
Self Driving [87.3492357041748]
本稿では,敵物体をホスト車両の上に配置することで,マルチセンサ検出の実用的感受性を示す。
実験の結果, 攻撃が成功した原因は主に画像の特徴が損なわれやすいことが判明した。
よりロバストなマルチモーダル知覚システムに向けて,特徴分断を伴う敵対的訓練が,このような攻撃に対するロバスト性を大幅に高めることを示す。
論文 参考訳(メタデータ) (2021-01-17T21:15:34Z) - Physically Realizable Adversarial Examples for LiDAR Object Detection [72.0017682322147]
本稿では,LiDAR検出器を騙すために,汎用な3次元対向物体を生成する手法を提案する。
特に,LiDAR検出器から車両を完全に隠蔽するために,車両の屋根上に対向物体を配置し,その成功率は80%であることを示した。
これは、限られたトレーニングデータから見知らぬ条件下での、より安全な自動運転への一歩だ。
論文 参考訳(メタデータ) (2020-04-01T16:11:04Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。