論文の概要: Adversarial Neon Beam: Robust Physical-World Adversarial Attack to DNNs
- arxiv url: http://arxiv.org/abs/2204.00853v2
- Date: Wed, 3 May 2023 08:04:33 GMT
- ステータス: 処理完了
- システム内更新日: 2023-05-04 19:09:36.406793
- Title: Adversarial Neon Beam: Robust Physical-World Adversarial Attack to DNNs
- Title(参考訳): 敵対的ネオンビーム:DNNに対するロバストな物理世界対抗攻撃
- Authors: Chengyin Hu and Kalibinuer Tiliwalidi
- Abstract要約: 本研究では,対向ネオンビーム(AdvNB)と呼ばれる攻撃手法を提案する。
デジタル環境では99.3%の攻撃成功率が達成され、物理的環境では100%の攻撃成功率が達成された。
実験データから, 対向するネオンビーム攻撃による新しい現象を明らかにした。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In the physical world, light affects the performance of deep neural networks.
Nowadays, many products based on deep neural network have been put into daily
life. There are few researches on the effect of light on the performance of
deep neural network models. However, the adversarial perturbations generated by
light may have extremely dangerous effects on these systems. In this work, we
propose an attack method called adversarial neon beam (AdvNB), which can
execute the physical attack by obtaining the physical parameters of adversarial
neon beams with very few queries. Experiments show that our algorithm can
achieve advanced attack effect in both digital test and physical test. In the
digital environment, 99.3% attack success rate was achieved, and in the
physical environment, 100% attack success rate was achieved. Compared with the
most advanced physical attack methods, our method can achieve better physical
perturbation concealment. In addition, by analyzing the experimental data, we
reveal some new phenomena brought about by the adversarial neon beam attack.
- Abstract(参考訳): 物理的な世界では、光はディープニューラルネットワークの性能に影響を与える。
今日では、ディープニューラルネットワークに基づく製品が日常生活に取り入れられている。
深層ニューラルネットワークモデルの性能に対する光の影響に関する研究はほとんどない。
しかし、光によって生じる逆摂動はこれらの系に非常に危険な影響を与える可能性がある。
本研究では, 対向ネオンビーム(advnb)と呼ばれる攻撃手法を提案する。
実験により,ディジタルテストと物理テストの両方において,高度な攻撃効果が得られた。
デジタル環境では99.3%の攻撃成功率が達成され、物理的環境では100%攻撃成功率が達成された。
最も高度な物理攻撃手法と比較すると,本手法はより優れた物理摂動隠蔽を実現することができる。
さらに, 実験データの解析により, 敵対的ネオンビーム攻撃による新たな現象を明らかにした。
関連論文リスト
- Attack Anything: Blind DNNs via Universal Background Adversarial Attack [17.73886733971713]
ディープニューラルネットワーク(DNN)は、敵の摂動に感受性があり、弱いことが広く実証されている。
本稿では,攻撃効果を多種多様な対象,モデル,タスク間でよく一般化する,攻撃の背景攻撃フレームワークを提案する。
我々は,様々な対象,モデル,タスクにまたがるデジタルドメインと物理ドメインの両方において,包括的かつ厳密な実験を行い,提案手法のあらゆる攻撃の有効性を実証した。
論文 参考訳(メタデータ) (2024-08-17T12:46:53Z) - Hide in Thicket: Generating Imperceptible and Rational Adversarial
Perturbations on 3D Point Clouds [62.94859179323329]
3Dポイントクラウド分類のための点操作に基づくアドリアック手法により、3Dモデルの脆弱性を明らかにした。
そこで本研究では,2段階の攻撃領域探索を行うHT-ADV法を提案する。
我々は,良性再サンプリングと良性剛性変換を用いることで,不受容性への犠牲がほとんどなく,身体的敵意の強さをさらに高めることができることを示唆する。
論文 参考訳(メタデータ) (2024-03-08T12:08:06Z) - Towards Lightweight Black-Box Attacks against Deep Neural Networks [70.9865892636123]
ブラックボックス攻撃は、いくつかのテストサンプルしか利用できない実用的な攻撃を引き起こす可能性があると我々は主張する。
いくつかのサンプルが必要なので、これらの攻撃を軽量なブラックボックス攻撃と呼ぶ。
近似誤差を軽減するために,Error TransFormer (ETF) を提案する。
論文 参考訳(メタデータ) (2022-09-29T14:43:03Z) - Adversarial Catoptric Light: An Effective, Stealthy and Robust
Physical-World Attack to DNNs [0.0]
本研究では, 自然現象である陰極光を用いて, 対向性摂動を発生させる新しい物理的攻撃, 対向性陰極光(AdvCL)を紹介する。
提案手法は, 有効性, ステルス性, 堅牢性の3つの側面で評価する。
攻撃成功率は83.5%で、ベースラインを超えています。
論文 参考訳(メタデータ) (2022-09-19T12:33:46Z) - Adversarial Color Projection: A Projector-based Physical Attack to DNNs [3.9477796725601872]
逆色投影(AdvCP)と呼ばれるブラックボックスプロジェクタによる物理的攻撃を提案する。
ImageNetのサブセットで97.60%の攻撃成功率を達成する一方、物理的な環境では100%の攻撃成功率を得る。
先進DNNを攻撃した場合, 実験結果から, 攻撃成功率85%以上が得られることが示された。
論文 参考訳(メタデータ) (2022-09-19T12:27:32Z) - Adversarial Camouflage for Node Injection Attack on Graphs [64.5888846198005]
グラフニューラルネットワーク(GNN)に対するノードインジェクション攻撃は、GNNのパフォーマンスを高い攻撃成功率で低下させる能力のため、近年注目を集めている。
本研究は,これらの攻撃が現実的なシナリオでしばしば失敗することを示す。
これを解決するため,我々はカモフラージュノードインジェクション攻撃(camouflage node Injection attack)に取り組んだ。
論文 参考訳(メタデータ) (2022-08-03T02:48:23Z) - Shadows can be Dangerous: Stealthy and Effective Physical-world
Adversarial Attack by Natural Phenomenon [79.33449311057088]
我々は、非常に一般的な自然現象であるシャドーによって摂動が生じる新しい種類の光対角運動例について研究する。
我々は,シミュレーション環境と実環境の両方において,この新たな攻撃の有効性を広く評価した。
論文 参考訳(メタデータ) (2022-03-08T02:40:18Z) - KATANA: Simple Post-Training Robustness Using Test Time Augmentations [49.28906786793494]
このような攻撃に対する先導的な防御は、DNNが敵の攻撃に対して堅牢であるように訓練される技術である敵の訓練である。
そこで本稿では,既存の事前学習型DNNを重みを変更せずに堅牢化する,シンプルで使いやすいKATANA手法を提案する。
我々の戦略は、自然画像の分類に最小限の妥協を伴い、様々な攻撃に対する最先端の敵対的堅牢性を達成する。
論文 参考訳(メタデータ) (2021-09-16T19:16:00Z) - Adversarial Laser Beam: Effective Physical-World Attack to DNNs in a
Blink [15.54571899946818]
我々は、ディープニューラルネットワーク(DNN)が簡単に騙されるレーザービームを単に使用して示す。
本稿では, レーザビームの物理パラメータの操作により, 対向攻撃を行うことのできる, 逆向レーザビーム(AdvLB$)と呼ばれる新しい攻撃法を提案する。
論文 参考訳(メタデータ) (2021-03-11T07:03:21Z) - SPAA: Stealthy Projector-based Adversarial Attacks on Deep Image
Classifiers [82.19722134082645]
本稿では,ステルスプロジェクタを用いた対向攻撃を提案する。
PCNetというディープニューラルネットワークを用いて実際のプロジェクトとキャプチャ操作を推定します。
実験の結果,SPAAは高い攻撃成功率を達成し,他の手法よりも優れていることがわかった。
論文 参考訳(メタデータ) (2020-12-10T18:14:03Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。