論文の概要: Catoptric Light can be Dangerous: Effective Physical-World Attack by
Natural Phenomenon
- arxiv url: http://arxiv.org/abs/2209.11739v1
- Date: Mon, 19 Sep 2022 12:33:46 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-02 23:04:55.343754
- Title: Catoptric Light can be Dangerous: Effective Physical-World Attack by
Natural Phenomenon
- Title(参考訳): 白内障の光は危険:自然現象による効果的な物理的世界攻撃
- Authors: Chengyin Hu, Weiwen Shi
- Abstract要約: 本研究は, 対向性対向性対向光(AdvCL)と呼ばれる, 対向性対向性摂動が自然現象によって生じる新たな物理的攻撃について検討する。
攻撃成功率はImageNetのサブセットで94.90%、現実世界環境では83.50%である。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Deep neural networks (DNNs) have achieved great success in many tasks.
Therefore, it is crucial to evaluate the robustness of advanced DNNs. The
traditional methods use stickers as physical perturbations to fool the
classifiers, which is difficult to achieve stealthiness and there exists
printing loss. Some new types of physical attacks use light beam to perform
attacks (e.g., laser, projector), whose optical patterns are artificial rather
than natural. In this work, we study a new type of physical attack, called
adversarial catoptric light (AdvCL), in which adversarial perturbations are
generated by common natural phenomena, catoptric light, to achieve stealthy and
naturalistic adversarial attacks against advanced DNNs in physical
environments. Carefully designed experiments demonstrate the effectiveness of
the proposed method in simulated and real-world environments. The attack
success rate is 94.90% in a subset of ImageNet and 83.50% in the real-world
environment. We also discuss some of AdvCL's transferability and defense
strategy against this attack.
- Abstract(参考訳): ディープニューラルネットワーク(DNN)は多くのタスクで大きな成功を収めています。
したがって、高度DNNの堅牢性を評価することが重要である。
伝統的な手法では、ステッカーを物理的摂動として分類器を騙すが、ステルス化が困難で印刷損失もある。
いくつかの新しい物理的攻撃は、光線を使って攻撃(例えばレーザー、プロジェクター)を行うが、光学パターンは自然ではなく人工的である。
本研究では, 自然現象, 陰極光によって敵の摂動が発生し, 物理的環境における先進的DNNに対するステルス性, 自然主義的逆境攻撃を実現する, 対向的逆向光(AdvCL)と呼ばれる新しい物理攻撃法について検討する。
シミュレーションおよび実環境における提案手法の有効性について検討した。
攻撃成功率はImageNetのサブセットで94.90%、現実世界環境では83.50%である。
また、この攻撃に対するAdvCLの転送性と防衛戦略についても論じる。
関連論文リスト
- Attack Anything: Blind DNNs via Universal Background Adversarial Attack [17.73886733971713]
ディープニューラルネットワーク(DNN)は、敵の摂動に感受性があり、弱いことが広く実証されている。
本稿では,攻撃効果を多種多様な対象,モデル,タスク間でよく一般化する,攻撃の背景攻撃フレームワークを提案する。
我々は,様々な対象,モデル,タスクにまたがるデジタルドメインと物理ドメインの両方において,包括的かつ厳密な実験を行い,提案手法のあらゆる攻撃の有効性を実証した。
論文 参考訳(メタデータ) (2024-08-17T12:46:53Z) - Hide in Thicket: Generating Imperceptible and Rational Adversarial
Perturbations on 3D Point Clouds [62.94859179323329]
3Dポイントクラウド分類のための点操作に基づくアドリアック手法により、3Dモデルの脆弱性を明らかにした。
そこで本研究では,2段階の攻撃領域探索を行うHT-ADV法を提案する。
我々は,良性再サンプリングと良性剛性変換を用いることで,不受容性への犠牲がほとんどなく,身体的敵意の強さをさらに高めることができることを示唆する。
論文 参考訳(メタデータ) (2024-03-08T12:08:06Z) - Physical Adversarial Attack meets Computer Vision: A Decade Survey [55.38113802311365]
本稿では,身体的敵意攻撃の概要を概観する。
本研究は,身体的敵意攻撃の性能を体系的に評価する第一歩を踏み出した。
提案する評価基準であるhiPAAは6つの視点から構成される。
論文 参考訳(メタデータ) (2022-09-30T01:59:53Z) - Adversarial Color Projection: A Projector-based Physical Attack to DNNs [3.9477796725601872]
逆色投影(AdvCP)と呼ばれるブラックボックスプロジェクタによる物理的攻撃を提案する。
ImageNetのサブセットで97.60%の攻撃成功率を達成する一方、物理的な環境では100%の攻撃成功率を得る。
先進DNNを攻撃した場合, 実験結果から, 攻撃成功率85%以上が得られることが示された。
論文 参考訳(メタデータ) (2022-09-19T12:27:32Z) - Adversarial Neon Beam: A Light-based Physical Attack to DNNs [17.555617901536404]
本研究では、対向ネオンビーム(AdvNB)と呼ばれる新しい光による攻撃を導入する。
このアプローチは,有効性,ステルス性,堅牢性という,3つの重要な基準に基づいて評価される。
一般的なネオンビームを摂動として使用することにより、提案した攻撃のステルス性を高め、物理的サンプルをより自然に見せることができる。
論文 参考訳(メタデータ) (2022-04-02T12:57:00Z) - Shadows can be Dangerous: Stealthy and Effective Physical-world
Adversarial Attack by Natural Phenomenon [79.33449311057088]
我々は、非常に一般的な自然現象であるシャドーによって摂動が生じる新しい種類の光対角運動例について研究する。
我々は,シミュレーション環境と実環境の両方において,この新たな攻撃の有効性を広く評価した。
論文 参考訳(メタデータ) (2022-03-08T02:40:18Z) - KATANA: Simple Post-Training Robustness Using Test Time Augmentations [49.28906786793494]
このような攻撃に対する先導的な防御は、DNNが敵の攻撃に対して堅牢であるように訓練される技術である敵の訓練である。
そこで本稿では,既存の事前学習型DNNを重みを変更せずに堅牢化する,シンプルで使いやすいKATANA手法を提案する。
我々の戦略は、自然画像の分類に最小限の妥協を伴い、様々な攻撃に対する最先端の敵対的堅牢性を達成する。
論文 参考訳(メタデータ) (2021-09-16T19:16:00Z) - Policy Smoothing for Provably Robust Reinforcement Learning [109.90239627115336]
入力のノルム有界対向摂動に対する強化学習の証明可能な堅牢性について検討する。
我々は、スムーズなポリシーによって得られる全報酬が、入力の摂動のノルムバウンドな逆数の下で一定の閾値以下に収まらないことを保証した証明書を生成する。
論文 参考訳(メタデータ) (2021-06-21T21:42:08Z) - Adversarial Laser Beam: Effective Physical-World Attack to DNNs in a
Blink [15.54571899946818]
我々は、ディープニューラルネットワーク(DNN)が簡単に騙されるレーザービームを単に使用して示す。
本稿では, レーザビームの物理パラメータの操作により, 対向攻撃を行うことのできる, 逆向レーザビーム(AdvLB$)と呼ばれる新しい攻撃法を提案する。
論文 参考訳(メタデータ) (2021-03-11T07:03:21Z) - SPAA: Stealthy Projector-based Adversarial Attacks on Deep Image
Classifiers [82.19722134082645]
本稿では,ステルスプロジェクタを用いた対向攻撃を提案する。
PCNetというディープニューラルネットワークを用いて実際のプロジェクトとキャプチャ操作を推定します。
実験の結果,SPAAは高い攻撃成功率を達成し,他の手法よりも優れていることがわかった。
論文 参考訳(メタデータ) (2020-12-10T18:14:03Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。