論文の概要: Adversarial Neon Beam: A Light-based Physical Attack to DNNs
- arxiv url: http://arxiv.org/abs/2204.00853v3
- Date: Tue, 23 May 2023 07:42:50 GMT
- ステータス: 処理完了
- システム内更新日: 2023-05-25 02:00:34.152123
- Title: Adversarial Neon Beam: A Light-based Physical Attack to DNNs
- Title(参考訳): 逆ネオンビーム:DNNに対する光による物理的攻撃
- Authors: Chengyin Hu, Weiwen Shi, Wen Li
- Abstract要約: 本研究では、対向ネオンビーム(AdvNB)と呼ばれる新しい光による攻撃を導入する。
このアプローチは,有効性,ステルス性,堅牢性という,3つの重要な基準に基づいて評価される。
一般的なネオンビームを摂動として使用することにより、提案した攻撃のステルス性を高め、物理的サンプルをより自然に見せることができる。
- 参考スコア(独自算出の注目度): 17.555617901536404
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In the physical world, deep neural networks (DNNs) are impacted by light and
shadow, which can have a significant effect on their performance. While
stickers have traditionally been used as perturbations in most physical
attacks, their perturbations can often be easily detected. To address this,
some studies have explored the use of light-based perturbations, such as lasers
or projectors, to generate more subtle perturbations, which are artificial
rather than natural. In this study, we introduce a novel light-based attack
called the adversarial neon beam (AdvNB), which utilizes common neon beams to
create a natural black-box physical attack. Our approach is evaluated on three
key criteria: effectiveness, stealthiness, and robustness. Quantitative results
obtained in simulated environments demonstrate the effectiveness of the
proposed method, and in physical scenarios, we achieve an attack success rate
of 81.82%, surpassing the baseline. By using common neon beams as
perturbations, we enhance the stealthiness of the proposed attack, enabling
physical samples to appear more natural. Moreover, we validate the robustness
of our approach by successfully attacking advanced DNNs with a success rate of
over 75% in all cases. We also discuss defense strategies against the AdvNB
attack and put forward other light-based physical attacks.
- Abstract(参考訳): 物理的な世界では、ディープニューラルネットワーク(DNN)は光と影の影響を受け、その性能に大きな影響を与える可能性がある。
ステッカーは伝統的にほとんどの物理的攻撃で摂動として用いられてきたが、その摂動は容易に検出できる。
これを解決するために、レーザーやプロジェクターなどの光ベースの摂動を用いて、自然ではなく人工的なより微妙な摂動を生成する研究がある。
本研究では,一般的なネオンビームを用いて自然なブラックボックス物理攻撃を生成する,advnb(adversarial neon beam)と呼ばれる新しい光ベースの攻撃を提案する。
このアプローチは,有効性,ステルス性,堅牢性という,3つの重要な基準に基づいて評価される。
シミュレーション環境で得られた定量的な結果は,提案手法の有効性を示し,物理的シナリオでは攻撃成功率が81.82%に達し,ベースラインを超えている。
一般的なネオンビームを摂動として使用することで、提案する攻撃のステルス性を高め、物理的サンプルをより自然に見せることができる。
さらに, 先進的なDNNを75%以上の成功率で攻撃することで, アプローチの堅牢性を検証した。
また,advnb攻撃に対する防御戦略を議論し,その他のライトベース物理攻撃を展開する。
関連論文リスト
- Attack Anything: Blind DNNs via Universal Background Adversarial Attack [17.73886733971713]
ディープニューラルネットワーク(DNN)は、敵の摂動に感受性があり、弱いことが広く実証されている。
本稿では,攻撃効果を多種多様な対象,モデル,タスク間でよく一般化する,攻撃の背景攻撃フレームワークを提案する。
我々は,様々な対象,モデル,タスクにまたがるデジタルドメインと物理ドメインの両方において,包括的かつ厳密な実験を行い,提案手法のあらゆる攻撃の有効性を実証した。
論文 参考訳(メタデータ) (2024-08-17T12:46:53Z) - Hide in Thicket: Generating Imperceptible and Rational Adversarial
Perturbations on 3D Point Clouds [62.94859179323329]
3Dポイントクラウド分類のための点操作に基づくアドリアック手法により、3Dモデルの脆弱性を明らかにした。
そこで本研究では,2段階の攻撃領域探索を行うHT-ADV法を提案する。
我々は,良性再サンプリングと良性剛性変換を用いることで,不受容性への犠牲がほとんどなく,身体的敵意の強さをさらに高めることができることを示唆する。
論文 参考訳(メタデータ) (2024-03-08T12:08:06Z) - Towards Lightweight Black-Box Attacks against Deep Neural Networks [70.9865892636123]
ブラックボックス攻撃は、いくつかのテストサンプルしか利用できない実用的な攻撃を引き起こす可能性があると我々は主張する。
いくつかのサンプルが必要なので、これらの攻撃を軽量なブラックボックス攻撃と呼ぶ。
近似誤差を軽減するために,Error TransFormer (ETF) を提案する。
論文 参考訳(メタデータ) (2022-09-29T14:43:03Z) - Adversarial Catoptric Light: An Effective, Stealthy and Robust
Physical-World Attack to DNNs [0.0]
本研究では, 自然現象である陰極光を用いて, 対向性摂動を発生させる新しい物理的攻撃, 対向性陰極光(AdvCL)を紹介する。
提案手法は, 有効性, ステルス性, 堅牢性の3つの側面で評価する。
攻撃成功率は83.5%で、ベースラインを超えています。
論文 参考訳(メタデータ) (2022-09-19T12:33:46Z) - Adversarial Color Projection: A Projector-based Physical Attack to DNNs [3.9477796725601872]
逆色投影(AdvCP)と呼ばれるブラックボックスプロジェクタによる物理的攻撃を提案する。
ImageNetのサブセットで97.60%の攻撃成功率を達成する一方、物理的な環境では100%の攻撃成功率を得る。
先進DNNを攻撃した場合, 実験結果から, 攻撃成功率85%以上が得られることが示された。
論文 参考訳(メタデータ) (2022-09-19T12:27:32Z) - Adversarial Camouflage for Node Injection Attack on Graphs [64.5888846198005]
グラフニューラルネットワーク(GNN)に対するノードインジェクション攻撃は、GNNのパフォーマンスを高い攻撃成功率で低下させる能力のため、近年注目を集めている。
本研究は,これらの攻撃が現実的なシナリオでしばしば失敗することを示す。
これを解決するため,我々はカモフラージュノードインジェクション攻撃(camouflage node Injection attack)に取り組んだ。
論文 参考訳(メタデータ) (2022-08-03T02:48:23Z) - Shadows can be Dangerous: Stealthy and Effective Physical-world
Adversarial Attack by Natural Phenomenon [79.33449311057088]
我々は、非常に一般的な自然現象であるシャドーによって摂動が生じる新しい種類の光対角運動例について研究する。
我々は,シミュレーション環境と実環境の両方において,この新たな攻撃の有効性を広く評価した。
論文 参考訳(メタデータ) (2022-03-08T02:40:18Z) - KATANA: Simple Post-Training Robustness Using Test Time Augmentations [49.28906786793494]
このような攻撃に対する先導的な防御は、DNNが敵の攻撃に対して堅牢であるように訓練される技術である敵の訓練である。
そこで本稿では,既存の事前学習型DNNを重みを変更せずに堅牢化する,シンプルで使いやすいKATANA手法を提案する。
我々の戦略は、自然画像の分類に最小限の妥協を伴い、様々な攻撃に対する最先端の敵対的堅牢性を達成する。
論文 参考訳(メタデータ) (2021-09-16T19:16:00Z) - Adversarial Laser Beam: Effective Physical-World Attack to DNNs in a
Blink [15.54571899946818]
我々は、ディープニューラルネットワーク(DNN)が簡単に騙されるレーザービームを単に使用して示す。
本稿では, レーザビームの物理パラメータの操作により, 対向攻撃を行うことのできる, 逆向レーザビーム(AdvLB$)と呼ばれる新しい攻撃法を提案する。
論文 参考訳(メタデータ) (2021-03-11T07:03:21Z) - SPAA: Stealthy Projector-based Adversarial Attacks on Deep Image
Classifiers [82.19722134082645]
本稿では,ステルスプロジェクタを用いた対向攻撃を提案する。
PCNetというディープニューラルネットワークを用いて実際のプロジェクトとキャプチャ操作を推定します。
実験の結果,SPAAは高い攻撃成功率を達成し,他の手法よりも優れていることがわかった。
論文 参考訳(メタデータ) (2020-12-10T18:14:03Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。