論文の概要: AdvRain: Adversarial Raindrops to Attack Camera-based Smart Vision
Systems
- arxiv url: http://arxiv.org/abs/2303.01338v2
- Date: Thu, 5 Oct 2023 11:55:37 GMT
- ステータス: 処理完了
- システム内更新日: 2023-10-06 22:53:57.658931
- Title: AdvRain: Adversarial Raindrops to Attack Camera-based Smart Vision
Systems
- Title(参考訳): AdvRain: カメラベースのスマートビジョンシステムを攻撃する逆降雨
- Authors: Amira Guesmi, Muhammad Abdullah Hanif, and Muhammad Shafique
- Abstract要約: 物理的敵攻撃として知られる「印刷された敵攻撃」は、認識モデルを誤解させることに成功した。
我々は,同じクラスの全てのオブジェクトに対して,カメラベースの認識システムを騙すことができるカメラベースの敵攻撃を提案する。
ImageNetとResnet34では、VGG19では平均モデルの精度が45%以上、40%以上低下しています。
- 参考スコア(独自算出の注目度): 5.476763798688862
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Vision-based perception modules are increasingly deployed in many
applications, especially autonomous vehicles and intelligent robots. These
modules are being used to acquire information about the surroundings and
identify obstacles. Hence, accurate detection and classification are essential
to reach appropriate decisions and take appropriate and safe actions at all
times. Current studies have demonstrated that "printed adversarial attacks",
known as physical adversarial attacks, can successfully mislead perception
models such as object detectors and image classifiers. However, most of these
physical attacks are based on noticeable and eye-catching patterns for
generated perturbations making them identifiable/detectable by human eye or in
test drives. In this paper, we propose a camera-based inconspicuous adversarial
attack (\textbf{AdvRain}) capable of fooling camera-based perception systems
over all objects of the same class. Unlike mask based fake-weather attacks that
require access to the underlying computing hardware or image memory, our attack
is based on emulating the effects of a natural weather condition (i.e.,
Raindrops) that can be printed on a translucent sticker, which is externally
placed over the lens of a camera. To accomplish this, we provide an iterative
process based on performing a random search aiming to identify critical
positions to make sure that the performed transformation is adversarial for a
target classifier. Our transformation is based on blurring predefined parts of
the captured image corresponding to the areas covered by the raindrop. We
achieve a drop in average model accuracy of more than $45\%$ and $40\%$ on
VGG19 for ImageNet and Resnet34 for Caltech-101, respectively, using only $20$
raindrops.
- Abstract(参考訳): 視覚ベースの知覚モジュールは多くのアプリケーション、特に自律走行車やインテリジェントロボットにますます導入されている。
これらのモジュールは周囲に関する情報を取得し、障害物を特定するために使用されている。
したがって、正確な検出と分類は適切な判断に達し、常に適切かつ安全な行動を取るために不可欠である。
最近の研究では、物理的敵攻撃として知られる「印刷された敵攻撃」が、物体検出器や画像分類器のような知覚モデルを誤認することに成功した。
しかし、これらの物理的攻撃のほとんどは、人目やテストドライブで特定・検出できるような、発生した摂動に対する目視パターンと目視パターンに基づいている。
本稿では,同じクラスのすべてのオブジェクトに対して,カメラベースの認識システムを騙すことができる,カメラベースの不明瞭な敵攻撃(\textbf{AdvRain})を提案する。
マスクベースのフェイクウェザー攻撃は、基盤となるコンピュータハードウェアやイメージメモリへのアクセスを必要とするが、この攻撃は、カメラのレンズの上に外部に配置される半透明のステッカーに印刷できる自然の気象条件(雨滴)の効果を模倣することに基づいている。
これを実現するために、重要位置を特定することを目的としたランダム探索を行い、目標分類器に対して変換が逆方向であることを確認するための反復的なプロセスを提案する。
この変換は,雨滴がカバーする領域に対応する撮像画像のぼやけた部分に基づいて行う。
平均モデルの精度は、ImageNetのVGG19とCaltech-101のResnet34で、それぞれ$45\%以上、$40\%以上、それぞれ$20$の降水量で低下します。
関連論文リスト
- Understanding Impacts of Electromagnetic Signal Injection Attacks on Object Detection [33.819549876354515]
本稿では,サイバー物理攻撃が物体検出モデルに与える影響を定量化し,解析する。
イメージセンサーが捉えた画像は、サイバー物理攻撃など、実際の応用におけるさまざまな要因に影響される可能性がある。
論文 参考訳(メタデータ) (2024-07-23T09:22:06Z) - TPatch: A Triggered Physical Adversarial Patch [19.768494127237393]
音響信号によって引き起こされる物理的対向パッチであるTPatchを提案する。
運転者の疑念を避けるため,コンテンツベースカモフラージュ法と攻撃強化法を提案する。
論文 参考訳(メタデータ) (2023-12-30T06:06:01Z) - Mask and Restore: Blind Backdoor Defense at Test Time with Masked
Autoencoder [57.739693628523]
Masked AutoEncoder (BDMAE) を用いたブラインドバックドア防御のためのフレームワークを提案する。
BDMAEは、画像構造的類似性とテスト画像とMAE復元の間のラベル整合性を用いて、トークン空間で可能なトリガを検出する。
私たちのアプローチは、モデル復元、パターンのトリガー、画像の良心に盲目です。
論文 参考訳(メタデータ) (2023-03-27T19:23:33Z) - Just Rotate it: Deploying Backdoor Attacks via Rotation Transformation [48.238349062995916]
回転に基づく画像変換により,高い効率のバックドアを容易に挿入できることが判明した。
私たちの研究は、バックドア攻撃のための、新しく、シンプルで、物理的に実現可能で、非常に効果的なベクターに焦点を当てています。
論文 参考訳(メタデータ) (2022-07-22T00:21:18Z) - Adversarially-Aware Robust Object Detector [85.10894272034135]
本稿では,ロバスト検出器 (RobustDet) を提案する。
本モデルは, クリーン画像の検出能力を維持しながら, 傾きを効果的に解き, 検出堅牢性を著しく向上させる。
論文 参考訳(メタデータ) (2022-07-13T13:59:59Z) - Towards Robust Rain Removal Against Adversarial Attacks: A Comprehensive
Benchmark Analysis and Beyond [85.06231315901505]
雨の除去は、画像やビデオから雨の流れを取り除き、雨による破壊的な影響を減らすことを目的としている。
本稿では, 深層学習に基づく雨害防止手法の強靭性に関する総合的な研究を初めて行おうとする。
論文 参考訳(メタデータ) (2022-03-31T10:22:24Z) - Context-Aware Transfer Attacks for Object Detection [51.65308857232767]
本稿では,オブジェクト検出のためのコンテキスト認識攻撃を新たに生成する手法を提案する。
オブジェクトとその相対的な位置と大きさの共起をコンテキスト情報として利用することにより、ターゲットの誤分類攻撃をうまく生成できることを示す。
論文 参考訳(メタデータ) (2021-12-06T18:26:39Z) - Robust SleepNets [7.23389716633927]
本研究では,運転者の脱着や運転者の眠気にかかわる事故を防止するために,視線閉鎖性検出について検討した。
目の閉鎖度を検出するための2つのモデル:目の画像の最初のモデルと顔の画像の2番目のモデル。
我々は,予測グラディエント Descent,Fast Gradient Sign,DeepFool メソッドでモデルに逆襲し,逆襲成功率を報告する。
論文 参考訳(メタデータ) (2021-02-24T20:48:13Z) - Dynamic Adversarial Patch for Evading Object Detection Models [47.32228513808444]
本研究では,実環境に適用したオブジェクト検出器に対する革新的な攻撃手法を提案する。
本手法では,対象物体上の複数の所定位置に配置される動的対向パッチを用いる。
対象オブジェクトと分類のセマンティック距離を考慮したパッチを生成することで攻撃を改善した。
論文 参考訳(メタデータ) (2020-10-25T08:55:40Z) - GhostImage: Remote Perception Attacks against Camera-based Image
Classification Systems [6.637193297008101]
視覚に基づくオブジェクト分類システムでは、センサーが環境を認識し、機械学習を使用して意思決定のためにオブジェクトを検出し分類する。
我々は、攻撃者が突発的なオブジェクトを作成したり、既存のオブジェクトを変更したりすることを可能にするために、認識ドメインをリモートかつ控えめに利用する方法を実証する。
論文 参考訳(メタデータ) (2020-01-21T21:58:45Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。