論文の概要: Rainbow Artifacts from Electromagnetic Signal Injection Attacks on Image Sensors
- arxiv url: http://arxiv.org/abs/2507.07773v1
- Date: Thu, 10 Jul 2025 13:55:35 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-07-11 16:40:15.428184
- Title: Rainbow Artifacts from Electromagnetic Signal Injection Attacks on Image Sensors
- Title(参考訳): 画像センサへの電磁波照射によるレインボーアーチファクト
- Authors: Youqian Zhang, Xinyu Ji, Zhihao Wang, Qinhong Jiang,
- Abstract要約: 画像センサーは、監視インフラ、自動運転車、産業自動化など、幅広い安全およびセキュリティクリティカルなシステムに不可欠なものだ。
本稿では,画像センサのアナログ領域を標的とした新しい電磁信号注入攻撃について検討する。
- 参考スコア(独自算出の注目度): 16.11931222046411
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Image sensors are integral to a wide range of safety- and security-critical systems, including surveillance infrastructure, autonomous vehicles, and industrial automation. These systems rely on the integrity of visual data to make decisions. In this work, we investigate a novel class of electromagnetic signal injection attacks that target the analog domain of image sensors, allowing adversaries to manipulate raw visual inputs without triggering conventional digital integrity checks. We uncover a previously undocumented attack phenomenon on CMOS image sensors: rainbow-like color artifacts induced in images captured by image sensors through carefully tuned electromagnetic interference. We further evaluate the impact of these attacks on state-of-the-art object detection models, showing that the injected artifacts propagate through the image signal processing pipeline and lead to significant mispredictions. Our findings highlight a critical and underexplored vulnerability in the visual perception stack, highlighting the need for more robust defenses against physical-layer attacks in such systems.
- Abstract(参考訳): 画像センサーは、監視インフラ、自動運転車、産業自動化など、幅広い安全およびセキュリティクリティカルなシステムに不可欠なものだ。
これらのシステムは、意思決定を行うために視覚データの完全性に依存する。
本研究では,画像センサのアナログ領域を標的とした新しい電磁信号注入攻撃について検討し,従来のデジタル整合性チェックを発生させることなく,相手が生の視覚入力を操作できるようにする。
CMOSイメージセンサーは、画像センサが捉えた画像にレインボーのような色のアーティファクトを、注意深く調整された電磁波干渉によって引き起こす。
これらの攻撃が最先端のオブジェクト検出モデルに与える影響をさらに評価し、注入されたアーティファクトが画像信号処理パイプラインを介して伝播し、重大な誤予測をもたらすことを示す。
本研究は,視覚的知覚スタックにおける重要かつ過小評価された脆弱性を浮き彫りにし,このようなシステムにおける物理層攻撃に対するより堅牢な防御の必要性を浮き彫りにした。
関連論文リスト
- Understanding Impacts of Electromagnetic Signal Injection Attacks on Object Detection [33.819549876354515]
本稿では,サイバー物理攻撃が物体検出モデルに与える影響を定量化し,解析する。
イメージセンサーが捉えた画像は、サイバー物理攻撃など、実際の応用におけるさまざまな要因に影響される可能性がある。
論文 参考訳(メタデータ) (2024-07-23T09:22:06Z) - Detection of Adversarial Physical Attacks in Time-Series Image Data [12.923271427789267]
本稿では,VGと多数投票法を併用したVG(VisionGuard*)を提案する。
これは、意思決定のためにオンボードセンサーを使用して画像が時間とともに収集される自律システムアプリケーションによって動機付けられている。
我々は、最先端のロバストな物理的攻撃によって生成された、クリーンかつ物理的に攻撃された交通標識のビデオ上で、VG*を評価した。
論文 参考訳(メタデータ) (2023-04-27T02:08:13Z) - Adversarially-Aware Robust Object Detector [85.10894272034135]
本稿では,ロバスト検出器 (RobustDet) を提案する。
本モデルは, クリーン画像の検出能力を維持しながら, 傾きを効果的に解き, 検出堅牢性を著しく向上させる。
論文 参考訳(メタデータ) (2022-07-13T13:59:59Z) - Detecting and Identifying Optical Signal Attacks on Autonomous Driving
Systems [25.32946739108013]
攻撃対象のセンサーを検知・識別する枠組みを提案する。
具体的には、3つのセンサーからなるシステムに対する攻撃を検知する新しい手法を最初に開発する。
本研究では,実データと最先端機械学習モデルを用いて,攻撃検出手法の評価を行う。
論文 参考訳(メタデータ) (2021-10-20T12:21:04Z) - Signal Injection Attacks against CCD Image Sensors [20.892354746682223]
我々は,CCDイメージセンサが捉えた画像情報を操作するために,電磁エマニュエーションをどのように利用できるかを示す。
以上の結果から,インジェクトされた歪みが視覚に基づく自律的知能システムを破壊する可能性が示唆された。
論文 参考訳(メタデータ) (2021-08-19T19:05:28Z) - Exploring Adversarial Robustness of Multi-Sensor Perception Systems in
Self Driving [87.3492357041748]
本稿では,敵物体をホスト車両の上に配置することで,マルチセンサ検出の実用的感受性を示す。
実験の結果, 攻撃が成功した原因は主に画像の特徴が損なわれやすいことが判明した。
よりロバストなマルチモーダル知覚システムに向けて,特徴分断を伴う敵対的訓練が,このような攻撃に対するロバスト性を大幅に高めることを示す。
論文 参考訳(メタデータ) (2021-01-17T21:15:34Z) - No Need to Know Physics: Resilience of Process-based Model-free Anomaly
Detection for Industrial Control Systems [95.54151664013011]
本稿では,システムの物理的特性に反する逆スプーフ信号を生成するための新しい枠組みを提案する。
トップセキュリティカンファレンスで公表された4つの異常検知器を分析した。
論文 参考訳(メタデータ) (2020-12-07T11:02:44Z) - Towards robust sensing for Autonomous Vehicles: An adversarial
perspective [82.83630604517249]
結果として得られる決定が摂動に対して堅牢であることは、最も重要なことです。
敵対的摂動は、意図的に環境や感覚測定の修正を施したものである。
より安全なシステムの構築とデプロイには,センサーシステムの脆弱性を慎重に評価する必要がある。
論文 参考訳(メタデータ) (2020-07-14T05:25:15Z) - Real-Time Detectors for Digital and Physical Adversarial Inputs to
Perception Systems [11.752184033538636]
ディープニューラルネットワーク(DNN)モデルは、敵のデジタルおよび物理的攻撃に対して脆弱であることが証明されている。
そこで本研究では,DNNに基づく認識システムに対する敵対的入力の両タイプに対して,新たな攻撃・データセット非依存・リアルタイム検出手法を提案する。
特に、提案した検出器は、逆画像が特定のラベル不変変換に敏感であるという観察に依存している。
論文 参考訳(メタデータ) (2020-02-23T00:03:57Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。