論文の概要: RFLA: A Stealthy Reflected Light Adversarial Attack in the Physical
World
- arxiv url: http://arxiv.org/abs/2307.07653v1
- Date: Fri, 14 Jul 2023 23:10:56 GMT
- ステータス: 処理完了
- システム内更新日: 2023-07-18 18:47:10.621598
- Title: RFLA: A Stealthy Reflected Light Adversarial Attack in the Physical
World
- Title(参考訳): rfla: 物理的世界における、ステルスな反射光敵攻撃
- Authors: Donghua Wang, Wen Yao, Tingsong Jiang, Chao Li, Xiaoqian Chen
- Abstract要約: 我々は、ディープニューラルネットワーク(DNN)に対する新しい反射光攻撃(RFLA)を提案する。
RFLAは、鏡の前面に透明なプラスチックシートと特定の形状の紙切片を配置して、対象物に異なる色のジオメトリーを作成する。
実験結果から,提案手法はデジタル世界の異なるデータセットやモデルにおいて,99%以上の成功率を達成することが示唆された。
- 参考スコア(独自算出の注目度): 6.347998407798736
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Physical adversarial attacks against deep neural networks (DNNs) have
recently gained increasing attention. The current mainstream physical attacks
use printed adversarial patches or camouflage to alter the appearance of the
target object. However, these approaches generate conspicuous adversarial
patterns that show poor stealthiness. Another physical deployable attack is the
optical attack, featuring stealthiness while exhibiting weakly in the daytime
with sunlight. In this paper, we propose a novel Reflected Light Attack (RFLA),
featuring effective and stealthy in both the digital and physical world, which
is implemented by placing the color transparent plastic sheet and a paper cut
of a specific shape in front of the mirror to create different colored
geometries on the target object. To achieve these goals, we devise a general
framework based on the circle to model the reflected light on the target
object. Specifically, we optimize a circle (composed of a coordinate and
radius) to carry various geometrical shapes determined by the optimized angle.
The fill color of the geometry shape and its corresponding transparency are
also optimized. We extensively evaluate the effectiveness of RFLA on different
datasets and models. Experiment results suggest that the proposed method
achieves over 99% success rate on different datasets and models in the digital
world. Additionally, we verify the effectiveness of the proposed method in
different physical environments by using sunlight or a flashlight.
- Abstract(参考訳): 近年、ディープニューラルネットワーク(DNN)に対する物理的敵対攻撃が注目されている。
現在の主流の物理的攻撃は、ターゲットオブジェクトの外観を変更するために、印刷された敵パッチまたはカモフラージュを使用する。
しかし、これらのアプローチは、盗みの少ない顕著な敵対パターンを生み出す。
もう一つの物理的展開可能な攻撃は光攻撃であり、日中は太陽光で弱く、ステルス性が特徴である。
本稿では,カラー透明なプラスチックシートと,鏡の前面に特定の形状の紙切れを配置し,対象物に対して異なるカラー測地線を作成することにより,デジタルと物理の両世界において効果的かつステルス性を有する新しい反射光攻撃(rfla)を提案する。
これらの目的を達成するために、対象物体の反射光をモデル化するための円に基づく一般的な枠組みを考案する。
具体的には、円(座標と半径からなる)を最適化し、最適化された角度によって決定される様々な幾何学的形状を持つ。
幾何学形状の充填色とそれに対応する透明度も最適化される。
異なるデータセットとモデルに対するRFLAの有効性を広範囲に評価した。
実験結果から,提案手法はデジタル世界の異なるデータセットやモデルにおいて,99%以上の成功率を達成することが示唆された。
また,太陽光や懐中電灯を用いて異なる物理環境における提案手法の有効性を検証する。
関連論文リスト
- Attack Anything: Blind DNNs via Universal Background Adversarial Attack [17.73886733971713]
ディープニューラルネットワーク(DNN)は、敵の摂動に感受性があり、弱いことが広く実証されている。
本稿では,攻撃効果を多種多様な対象,モデル,タスク間でよく一般化する,攻撃の背景攻撃フレームワークを提案する。
我々は,様々な対象,モデル,タスクにまたがるデジタルドメインと物理ドメインの両方において,包括的かつ厳密な実験を行い,提案手法のあらゆる攻撃の有効性を実証した。
論文 参考訳(メタデータ) (2024-08-17T12:46:53Z) - Hide in Thicket: Generating Imperceptible and Rational Adversarial
Perturbations on 3D Point Clouds [62.94859179323329]
3Dポイントクラウド分類のための点操作に基づくアドリアック手法により、3Dモデルの脆弱性を明らかにした。
そこで本研究では,2段階の攻撃領域探索を行うHT-ADV法を提案する。
我々は,良性再サンプリングと良性剛性変換を用いることで,不受容性への犠牲がほとんどなく,身体的敵意の強さをさらに高めることができることを示唆する。
論文 参考訳(メタデータ) (2024-03-08T12:08:06Z) - Unified Adversarial Patch for Visible-Infrared Cross-modal Attacks in
the Physical World [11.24237636482709]
我々は,単一パッチを同時に両モードで回避し,クロスモーダルな物理的攻撃を行える統一逆襲パッチを設計する。
本稿では, 対向パッチのコンパクトかつ滑らかな形状を実現することを目的とした, 境界制限型形状最適化手法を提案する。
提案手法はいくつかの最先端物体検出器に対して評価され,アタック成功率 (ASR) は80%以上である。
論文 参考訳(メタデータ) (2023-07-27T08:14:22Z) - Unified Adversarial Patch for Cross-modal Attacks in the Physical World [11.24237636482709]
単一パッチにより同時に可視・近赤外物体検出装置を騙すための一元対向パッチを提案する。
可視・赤外線センサの異なるイメージング機構を考慮すると、我々の研究は対向パッチの形状をモデル化することに集中している。
その結果、我々の統一パッチは、それぞれ73.33%と69.17%のアタック成功率(ASR)を達成した。
論文 参考訳(メタデータ) (2023-07-15T17:45:17Z) - Patch of Invisibility: Naturalistic Physical Black-Box Adversarial Attacks on Object Detectors [0.0]
対象検出器に対する自然主義的物理逆パッチを生成するために, 直接的, ブラックボックス, グラデーションフリーな手法を提案する。
我々の知る限り、これはオブジェクト検出モデルに直接ブラックボックス物理攻撃を実行する最初の、かつ唯一の方法である。
論文 参考訳(メタデータ) (2023-03-07T21:03:48Z) - Shadows can be Dangerous: Stealthy and Effective Physical-world
Adversarial Attack by Natural Phenomenon [79.33449311057088]
我々は、非常に一般的な自然現象であるシャドーによって摂動が生じる新しい種類の光対角運動例について研究する。
我々は,シミュレーション環境と実環境の両方において,この新たな攻撃の有効性を広く評価した。
論文 参考訳(メタデータ) (2022-03-08T02:40:18Z) - DPA: Learning Robust Physical Adversarial Camouflages for Object
Detectors [5.598600329573922]
そこで本研究では,Dense Proposals Attack (DPA) を提案し,検出器の頑健で物理的,ターゲットとした対向カモフラージュを学習する。
カモフラージュは、任意の視点と異なる照明条件下で撮影されたとき、敵対的であり続けるため、頑丈である。
We build a virtual 3D scene using the Unity Simulation engine to evaluate fair and reproducally different physical attack。
論文 参考訳(メタデータ) (2021-09-01T00:18:17Z) - Evaluating the Robustness of Semantic Segmentation for Autonomous
Driving against Real-World Adversarial Patch Attacks [62.87459235819762]
自動運転車のような現実のシナリオでは、現実の敵例(RWAE)にもっと注意を払わなければならない。
本稿では,デジタルおよび実世界の敵対パッチの効果を検証し,一般的なSSモデルのロバスト性を詳細に評価する。
論文 参考訳(メタデータ) (2021-08-13T11:49:09Z) - SPAA: Stealthy Projector-based Adversarial Attacks on Deep Image
Classifiers [82.19722134082645]
本稿では,ステルスプロジェクタを用いた対向攻撃を提案する。
PCNetというディープニューラルネットワークを用いて実際のプロジェクトとキャプチャ操作を推定します。
実験の結果,SPAAは高い攻撃成功率を達成し,他の手法よりも優れていることがわかった。
論文 参考訳(メタデータ) (2020-12-10T18:14:03Z) - Decision-based Universal Adversarial Attack [55.76371274622313]
ブラックボックス設定では、現在の普遍的敵攻撃法は代用モデルを用いて摂動を生成する。
効率的な決定に基づくユニバーサルアタック(DUAttack)を提案する。
DUAttackの有効性は、他の最先端攻撃との比較によって検証される。
論文 参考訳(メタデータ) (2020-09-15T12:49:03Z) - Patch-wise Attack for Fooling Deep Neural Network [153.59832333877543]
我々は,一般的な訓練と防御モデルに対するブラックボックス攻撃であるパッチワイド反復アルゴリズムを提案する。
我々は、防衛モデルで9.2%、通常訓練されたモデルで3.7%、成功率で著しく改善した。
論文 参考訳(メタデータ) (2020-07-14T01:50:22Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。