論文の概要: Adversarial Color Projection: A Projector-Based Physical Attack to DNNs
- arxiv url: http://arxiv.org/abs/2209.09652v1
- Date: Mon, 19 Sep 2022 12:27:32 GMT
- ステータス: 処理完了
- システム内更新日: 2022-09-21 19:20:41.533314
- Title: Adversarial Color Projection: A Projector-Based Physical Attack to DNNs
- Title(参考訳): 逆色投影:DNNに対するプロジェクターによる物理的攻撃
- Authors: Chengyin Hu, Weiwen Shi
- Abstract要約: 逆カラープロジェクション(AdvCP)と呼ばれるプロジェクターによる物理的攻撃を提案する。
実験により,デジタル環境と物理環境の両方において,本手法の有効性が示された。
我々は将来のビジョンベースのシステムやアプリケーションに対するAdvCPの脅威を予想する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Recent advances have shown that deep neural networks (DNNs) are susceptible
to adversarial perturbations. Therefore, it is necessary to evaluate the
robustness of advanced DNNs using adversarial attacks. However, traditional
physical attacks that use stickers as perturbations are more vulnerable than
recent light-based physical attacks. In this work, we propose a projector-based
physical attack called adversarial color projection (AdvCP), which performs an
adversarial attack by manipulating the physical parameters of the projected
light. Experiments show the effectiveness of our method in both digital and
physical environments. The experimental results demonstrate that the proposed
method has excellent attack transferability, which endows AdvCP with effective
blackbox attack. We prospect AdvCP threats to future vision-based systems and
applications and propose some ideas for light-based physical attacks.
- Abstract(参考訳): 近年の進歩により、ディープニューラルネットワーク(DNN)は敵の摂動に影響を受けやすいことが示されている。
したがって、敵攻撃による先進的DNNの堅牢性を評価する必要がある。
しかし、スタンプを摂動として使用する従来の物理的攻撃は、近年の光による物理的攻撃よりも脆弱である。
そこで本研究では,投影光の物理パラメータを操作して逆攻撃を行う,advcp(adversarial color projection)と呼ばれるプロジェクタベースの物理攻撃を提案する。
実験では,デジタル環境と物理環境の両方において,本手法の有効性を示す。
実験により,提案手法は優れた攻撃伝達性を有し,有効ブラックボックス攻撃をAdvCPに与えることを示した。
我々は将来のビジョンベースシステムやアプリケーションに対するAdvCPの脅威を予測し、光ベースの物理的攻撃に対するいくつかのアイデアを提案する。
関連論文リスト
- Attack Anything: Blind DNNs via Universal Background Adversarial Attack [17.73886733971713]
ディープニューラルネットワーク(DNN)は、敵の摂動に感受性があり、弱いことが広く実証されている。
本稿では,攻撃効果を多種多様な対象,モデル,タスク間でよく一般化する,攻撃の背景攻撃フレームワークを提案する。
我々は,様々な対象,モデル,タスクにまたがるデジタルドメインと物理ドメインの両方において,包括的かつ厳密な実験を行い,提案手法のあらゆる攻撃の有効性を実証した。
論文 参考訳(メタデータ) (2024-08-17T12:46:53Z) - Hide in Thicket: Generating Imperceptible and Rational Adversarial
Perturbations on 3D Point Clouds [62.94859179323329]
3Dポイントクラウド分類のための点操作に基づくアドリアック手法により、3Dモデルの脆弱性を明らかにした。
そこで本研究では,2段階の攻撃領域探索を行うHT-ADV法を提案する。
我々は,良性再サンプリングと良性剛性変換を用いることで,不受容性への犠牲がほとんどなく,身体的敵意の強さをさらに高めることができることを示唆する。
論文 参考訳(メタデータ) (2024-03-08T12:08:06Z) - Confidence-driven Sampling for Backdoor Attacks [49.72680157684523]
バックドア攻撃は、悪質なトリガをDNNモデルに過剰に挿入することを目的としており、テストシナリオ中に不正な制御を許可している。
既存の方法では防衛戦略に対する堅牢性が欠如しており、主に無作為な試薬を無作為に選別しながら、引き金の盗難を強化することに重点を置いている。
信頼性スコアの低いサンプルを選別し、これらの攻撃を識別・対処する上で、守備側の課題を著しく増大させる。
論文 参考訳(メタデータ) (2023-10-08T18:57:36Z) - Physical Adversarial Attack meets Computer Vision: A Decade Survey [55.38113802311365]
本稿では,身体的敵意攻撃の概要を概観する。
本研究は,身体的敵意攻撃の性能を体系的に評価する第一歩を踏み出した。
提案する評価基準であるhiPAAは6つの視点から構成される。
論文 参考訳(メタデータ) (2022-09-30T01:59:53Z) - A Survey on Physical Adversarial Attack in Computer Vision [7.053905447737444]
ディープニューラルネットワーク(DNN)は、悪意のある小さなノイズによって作られた敵の例に弱いことが示されている。
DNNベースのシステムを現実世界に展開する機会が増えているため、これらのシステムの堅牢性を強化することは非常事態である。
論文 参考訳(メタデータ) (2022-09-28T17:23:52Z) - Adversarial Catoptric Light: An Effective, Stealthy and Robust
Physical-World Attack to DNNs [0.0]
本研究では, 自然現象である陰極光を用いて, 対向性摂動を発生させる新しい物理的攻撃, 対向性陰極光(AdvCL)を紹介する。
提案手法は, 有効性, ステルス性, 堅牢性の3つの側面で評価する。
攻撃成功率は83.5%で、ベースラインを超えています。
論文 参考訳(メタデータ) (2022-09-19T12:33:46Z) - Adversarial Neon Beam: A Light-based Physical Attack to DNNs [17.555617901536404]
本研究では、対向ネオンビーム(AdvNB)と呼ばれる新しい光による攻撃を導入する。
このアプローチは,有効性,ステルス性,堅牢性という,3つの重要な基準に基づいて評価される。
一般的なネオンビームを摂動として使用することにより、提案した攻撃のステルス性を高め、物理的サンプルをより自然に見せることができる。
論文 参考訳(メタデータ) (2022-04-02T12:57:00Z) - Shadows can be Dangerous: Stealthy and Effective Physical-world
Adversarial Attack by Natural Phenomenon [79.33449311057088]
我々は、非常に一般的な自然現象であるシャドーによって摂動が生じる新しい種類の光対角運動例について研究する。
我々は,シミュレーション環境と実環境の両方において,この新たな攻撃の有効性を広く評価した。
論文 参考訳(メタデータ) (2022-03-08T02:40:18Z) - Evaluating the Robustness of Semantic Segmentation for Autonomous
Driving against Real-World Adversarial Patch Attacks [62.87459235819762]
自動運転車のような現実のシナリオでは、現実の敵例(RWAE)にもっと注意を払わなければならない。
本稿では,デジタルおよび実世界の敵対パッチの効果を検証し,一般的なSSモデルのロバスト性を詳細に評価する。
論文 参考訳(メタデータ) (2021-08-13T11:49:09Z) - SPAA: Stealthy Projector-based Adversarial Attacks on Deep Image
Classifiers [82.19722134082645]
本稿では,ステルスプロジェクタを用いた対向攻撃を提案する。
PCNetというディープニューラルネットワークを用いて実際のプロジェクトとキャプチャ操作を推定します。
実験の結果,SPAAは高い攻撃成功率を達成し,他の手法よりも優れていることがわかった。
論文 参考訳(メタデータ) (2020-12-10T18:14:03Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。