論文の概要: Signal Injection Attacks against CCD Image Sensors
- arxiv url: http://arxiv.org/abs/2108.08881v1
- Date: Thu, 19 Aug 2021 19:05:28 GMT
- ステータス: 処理完了
- システム内更新日: 2021-08-23 13:21:04.828445
- Title: Signal Injection Attacks against CCD Image Sensors
- Title(参考訳): CCDイメージセンサに対する信号注入攻撃
- Authors: Sebastian K\"ohler, Richard Baker, Ivan Martinovic
- Abstract要約: 我々は,CCDイメージセンサが捉えた画像情報を操作するために,電磁エマニュエーションをどのように利用できるかを示す。
以上の結果から,インジェクトされた歪みが視覚に基づく自律的知能システムを破壊する可能性が示唆された。
- 参考スコア(独自算出の注目度): 20.892354746682223
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Since cameras have become a crucial part in many safety-critical systems and
applications, such as autonomous vehicles and surveillance, a large body of
academic and non-academic work has shown attacks against their main component -
the image sensor. However, these attacks are limited to coarse-grained and
often suspicious injections because light is used as an attack vector.
Furthermore, due to the nature of optical attacks, they require the
line-of-sight between the adversary and the target camera.
In this paper, we present a novel post-transducer signal injection attack
against CCD image sensors, as they are used in professional, scientific, and
even military settings. We show how electromagnetic emanation can be used to
manipulate the image information captured by a CCD image sensor with the
granularity down to the brightness of individual pixels. We study the
feasibility of our attack and then demonstrate its effects in the scenario of
automatic barcode scanning. Our results indicate that the injected distortion
can disrupt automated vision-based intelligent systems.
- Abstract(参考訳): 自動運転車や監視など、多くの安全クリティカルなシステムやアプリケーションにおいて、カメラが重要な役割を担っているため、学術的および非学術的な研究が主要なコンポーネントであるイメージセンサーに対する攻撃を示している。
しかし、これらの攻撃は、光が攻撃ベクトルとして使用されるため、粗粒化され、しばしば疑わしい注射に限定される。
さらに、光学攻撃の性質上、敵とターゲットカメラの間の視線線が必要である。
本稿では, ccdイメージセンサに対するポストトランスデューサ信号注入攻撃について, 専門的, 科学的, 軍事的にも応用できる新しい手法を提案する。
我々は,CCDイメージセンサが捉えた画像情報を,個々の画素の明るさまで微細度で操作するために,電磁エマニュエーションをどのように利用できるかを示す。
我々は,攻撃の可能性を調査し,その効果をバーコード自動スキャンのシナリオで実証する。
以上の結果から,インジェクション歪みは自動視覚に基づく知的システムを混乱させる可能性が示唆された。
関連論文リスト
- Understanding Impacts of Electromagnetic Signal Injection Attacks on Object Detection [33.819549876354515]
本稿では,サイバー物理攻撃が物体検出モデルに与える影響を定量化し,解析する。
イメージセンサーが捉えた画像は、サイバー物理攻撃など、実際の応用におけるさまざまな要因に影響される可能性がある。
論文 参考訳(メタデータ) (2024-07-23T09:22:06Z) - Principles of Designing Robust Remote Face Anti-Spoofing Systems [60.05766968805833]
本稿では,デジタル攻撃に対する最先端の対面防止手法の脆弱性に光を当てる。
反偽造システムに遭遇する一般的な脅威を包括的に分類する。
論文 参考訳(メタデータ) (2024-06-06T02:05:35Z) - Detection of Adversarial Physical Attacks in Time-Series Image Data [12.923271427789267]
本稿では,VGと多数投票法を併用したVG(VisionGuard*)を提案する。
これは、意思決定のためにオンボードセンサーを使用して画像が時間とともに収集される自律システムアプリケーションによって動機付けられている。
我々は、最先端のロバストな物理的攻撃によって生成された、クリーンかつ物理的に攻撃された交通標識のビデオ上で、VG*を評価した。
論文 参考訳(メタデータ) (2023-04-27T02:08:13Z) - AdvRain: Adversarial Raindrops to Attack Camera-based Smart Vision
Systems [5.476763798688862]
物理的敵攻撃として知られる「印刷された敵攻撃」は、認識モデルを誤解させることに成功した。
我々は,同じクラスの全てのオブジェクトに対して,カメラベースの認識システムを騙すことができるカメラベースの敵攻撃を提案する。
ImageNetとResnet34では、VGG19では平均モデルの精度が45%以上、40%以上低下しています。
論文 参考訳(メタデータ) (2023-03-02T15:14:46Z) - X-Adv: Physical Adversarial Object Attacks against X-ray Prohibited Item
Detection [113.10386151761682]
テクスチャフリーなX線画像を対象とした敵攻撃は未発見である。
本稿では,X線禁止項目検出を目的とした敵攻撃の研究に向けて第一歩を踏み出す。
我々は,X線検出器を消毒できる対向剤として機能する物理的に印刷可能な金属を生成するために,X-Advを提案する。
論文 参考訳(メタデータ) (2023-02-19T06:31:17Z) - Adversarially-Aware Robust Object Detector [85.10894272034135]
本稿では,ロバスト検出器 (RobustDet) を提案する。
本モデルは, クリーン画像の検出能力を維持しながら, 傾きを効果的に解き, 検出堅牢性を著しく向上させる。
論文 参考訳(メタデータ) (2022-07-13T13:59:59Z) - Drone Detection and Tracking in Real-Time by Fusion of Different Sensing
Modalities [66.4525391417921]
マルチセンサ・ドローン検知システムの設計と評価を行う。
われわれのソリューションは、魚眼カメラを統合し、空の広い部分を監視し、他のカメラを興味ある対象に向けて操縦する。
このサーマルカメラは、たとえこのカメラが解像度が低いとしても、ビデオカメラと同じくらい実現可能なソリューションであることが示されている。
論文 参考訳(メタデータ) (2022-07-05T10:00:58Z) - Exploring Frequency Adversarial Attacks for Face Forgery Detection [59.10415109589605]
フェースフォージェリ検出器に対する周波数対向攻撃法を提案する。
また,メタラーニングの概念に触発されて,空間領域と周波数領域の両方で攻撃を行うハイブリッド逆攻撃を提案する。
論文 参考訳(メタデータ) (2022-03-29T15:34:13Z) - They See Me Rollin': Inherent Vulnerability of the Rolling Shutter in
CMOS Image Sensors [21.5487020124302]
カメラの電子回転シャッターを利用して微細な画像破壊を注入することができる。
敵がレーザーを変調して、最先端の検出器で認識される物体の75%を隠蔽する方法を示す。
以上の結果から,ローリングシャッター攻撃は視覚に基づくインテリジェントシステムの性能と信頼性を大幅に低下させる可能性が示唆された。
論文 参考訳(メタデータ) (2021-01-25T11:14:25Z) - Exploring Adversarial Robustness of Multi-Sensor Perception Systems in
Self Driving [87.3492357041748]
本稿では,敵物体をホスト車両の上に配置することで,マルチセンサ検出の実用的感受性を示す。
実験の結果, 攻撃が成功した原因は主に画像の特徴が損なわれやすいことが判明した。
よりロバストなマルチモーダル知覚システムに向けて,特徴分断を伴う敵対的訓練が,このような攻撃に対するロバスト性を大幅に高めることを示す。
論文 参考訳(メタデータ) (2021-01-17T21:15:34Z) - GhostImage: Remote Perception Attacks against Camera-based Image
Classification Systems [6.637193297008101]
視覚に基づくオブジェクト分類システムでは、センサーが環境を認識し、機械学習を使用して意思決定のためにオブジェクトを検出し分類する。
我々は、攻撃者が突発的なオブジェクトを作成したり、既存のオブジェクトを変更したりすることを可能にするために、認識ドメインをリモートかつ控えめに利用する方法を実証する。
論文 参考訳(メタデータ) (2020-01-21T21:58:45Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。