論文の概要: Adversarial Color Projection: A Projector-based Physical Attack to DNNs
- arxiv url: http://arxiv.org/abs/2209.09652v2
- Date: Tue, 23 May 2023 11:56:41 GMT
- ステータス: 処理完了
- システム内更新日: 2023-05-25 01:31:13.725142
- Title: Adversarial Color Projection: A Projector-based Physical Attack to DNNs
- Title(参考訳): 逆色投影:DNNに対するプロジェクタによる物理的攻撃
- Authors: Chengyin Hu, Weiwen Shi, Ling Tian
- Abstract要約: 逆色投影(AdvCP)と呼ばれるブラックボックスプロジェクタによる物理的攻撃を提案する。
ImageNetのサブセットで97.60%の攻撃成功率を達成する一方、物理的な環境では100%の攻撃成功率を得る。
先進DNNを攻撃した場合, 実験結果から, 攻撃成功率85%以上が得られることが示された。
- 参考スコア(独自算出の注目度): 3.9477796725601872
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Recent research has demonstrated that deep neural networks (DNNs) are
vulnerable to adversarial perturbations. Therefore, it is imperative to
evaluate the resilience of advanced DNNs to adversarial attacks. However,
traditional methods that use stickers as physical perturbations to deceive
classifiers face challenges in achieving stealthiness and are susceptible to
printing loss. Recently, advancements in physical attacks have utilized light
beams, such as lasers, to perform attacks, where the optical patterns generated
are artificial rather than natural. In this work, we propose a black-box
projector-based physical attack, referred to as adversarial color projection
(AdvCP), which manipulates the physical parameters of color projection to
perform an adversarial attack. We evaluate our approach on three crucial
criteria: effectiveness, stealthiness, and robustness. In the digital
environment, we achieve an attack success rate of 97.60% on a subset of
ImageNet, while in the physical environment, we attain an attack success rate
of 100% in the indoor test and 82.14% in the outdoor test. The adversarial
samples generated by AdvCP are compared with baseline samples to demonstrate
the stealthiness of our approach. When attacking advanced DNNs, experimental
results show that our method can achieve more than 85% attack success rate in
all cases, which verifies the robustness of AdvCP. Finally, we consider the
potential threats posed by AdvCP to future vision-based systems and
applications and suggest some ideas for light-based physical attacks.
- Abstract(参考訳): 最近の研究では、ディープニューラルネットワーク(DNN)が敵の摂動に弱いことが示されている。
したがって、敵攻撃に対する先進的DNNの弾力性を評価することが不可欠である。
しかし、ステッカーを物理的摂動として用い、分類器を欺く伝統的な手法は、ステルス性を達成することが困難であり、印刷損失の影響を受けやすい。
近年、物理的攻撃の進展はレーザーなどの光線を利用して、発生した光学パターンが自然ではなく人工的な攻撃を行っている。
本研究では,色投射の物理パラメータを制御し,対角攻撃を行う,ブラックボックス・プロジェクタに基づく物理的攻撃(AdvCP)を提案する。
弊社のアプローチは,有効性,ステルス性,堅牢性という3つの重要な基準で評価する。
デジタル環境では、ImageNetのサブセットで97.60%の攻撃成功率を達成する一方、物理的環境では、屋内テストで100%、屋外テストで82.14%の攻撃成功率を得る。
また,AdvCP が生成した逆数サンプルをベースライン試料と比較し,本手法のステルス性を示した。
先進DNNを攻撃した場合,実験結果から,AdvCPのロバスト性を検証したすべてのケースにおいて,攻撃成功率85%以上を達成できることが確認された。
最後に、advcpが将来のビジョンベースのシステムやアプリケーションに対して与える潜在的な脅威を検討し、光ベースの物理的攻撃のアイデアを提案する。
関連論文リスト
- Attack Anything: Blind DNNs via Universal Background Adversarial Attack [17.73886733971713]
ディープニューラルネットワーク(DNN)は、敵の摂動に感受性があり、弱いことが広く実証されている。
本稿では,攻撃効果を多種多様な対象,モデル,タスク間でよく一般化する,攻撃の背景攻撃フレームワークを提案する。
我々は,様々な対象,モデル,タスクにまたがるデジタルドメインと物理ドメインの両方において,包括的かつ厳密な実験を行い,提案手法のあらゆる攻撃の有効性を実証した。
論文 参考訳(メタデータ) (2024-08-17T12:46:53Z) - Hide in Thicket: Generating Imperceptible and Rational Adversarial
Perturbations on 3D Point Clouds [62.94859179323329]
3Dポイントクラウド分類のための点操作に基づくアドリアック手法により、3Dモデルの脆弱性を明らかにした。
そこで本研究では,2段階の攻撃領域探索を行うHT-ADV法を提案する。
我々は,良性再サンプリングと良性剛性変換を用いることで,不受容性への犠牲がほとんどなく,身体的敵意の強さをさらに高めることができることを示唆する。
論文 参考訳(メタデータ) (2024-03-08T12:08:06Z) - Confidence-driven Sampling for Backdoor Attacks [49.72680157684523]
バックドア攻撃は、悪質なトリガをDNNモデルに過剰に挿入することを目的としており、テストシナリオ中に不正な制御を許可している。
既存の方法では防衛戦略に対する堅牢性が欠如しており、主に無作為な試薬を無作為に選別しながら、引き金の盗難を強化することに重点を置いている。
信頼性スコアの低いサンプルを選別し、これらの攻撃を識別・対処する上で、守備側の課題を著しく増大させる。
論文 参考訳(メタデータ) (2023-10-08T18:57:36Z) - Physical Adversarial Attack meets Computer Vision: A Decade Survey [57.46379460600939]
本稿では,身体的敵意攻撃の概要を概観する。
本研究は,身体的敵意攻撃の性能を体系的に評価する第一歩を踏み出した。
提案する評価基準であるhiPAAは6つの視点から構成される。
論文 参考訳(メタデータ) (2022-09-30T01:59:53Z) - A Survey on Physical Adversarial Attack in Computer Vision [7.053905447737444]
ディープニューラルネットワーク(DNN)は、悪意のある小さなノイズによって作られた敵の例に弱いことが示されている。
DNNベースのシステムを現実世界に展開する機会が増えているため、これらのシステムの堅牢性を強化することは非常事態である。
論文 参考訳(メタデータ) (2022-09-28T17:23:52Z) - Adversarial Catoptric Light: An Effective, Stealthy and Robust
Physical-World Attack to DNNs [0.0]
本研究では, 自然現象である陰極光を用いて, 対向性摂動を発生させる新しい物理的攻撃, 対向性陰極光(AdvCL)を紹介する。
提案手法は, 有効性, ステルス性, 堅牢性の3つの側面で評価する。
攻撃成功率は83.5%で、ベースラインを超えています。
論文 参考訳(メタデータ) (2022-09-19T12:33:46Z) - Adversarial Neon Beam: A Light-based Physical Attack to DNNs [17.555617901536404]
本研究では、対向ネオンビーム(AdvNB)と呼ばれる新しい光による攻撃を導入する。
このアプローチは,有効性,ステルス性,堅牢性という,3つの重要な基準に基づいて評価される。
一般的なネオンビームを摂動として使用することにより、提案した攻撃のステルス性を高め、物理的サンプルをより自然に見せることができる。
論文 参考訳(メタデータ) (2022-04-02T12:57:00Z) - Shadows can be Dangerous: Stealthy and Effective Physical-world
Adversarial Attack by Natural Phenomenon [79.33449311057088]
我々は、非常に一般的な自然現象であるシャドーによって摂動が生じる新しい種類の光対角運動例について研究する。
我々は,シミュレーション環境と実環境の両方において,この新たな攻撃の有効性を広く評価した。
論文 参考訳(メタデータ) (2022-03-08T02:40:18Z) - Evaluating the Robustness of Semantic Segmentation for Autonomous
Driving against Real-World Adversarial Patch Attacks [62.87459235819762]
自動運転車のような現実のシナリオでは、現実の敵例(RWAE)にもっと注意を払わなければならない。
本稿では,デジタルおよび実世界の敵対パッチの効果を検証し,一般的なSSモデルのロバスト性を詳細に評価する。
論文 参考訳(メタデータ) (2021-08-13T11:49:09Z) - SPAA: Stealthy Projector-based Adversarial Attacks on Deep Image
Classifiers [82.19722134082645]
本稿では,ステルスプロジェクタを用いた対向攻撃を提案する。
PCNetというディープニューラルネットワークを用いて実際のプロジェクトとキャプチャ操作を推定します。
実験の結果,SPAAは高い攻撃成功率を達成し,他の手法よりも優れていることがわかった。
論文 参考訳(メタデータ) (2020-12-10T18:14:03Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。