論文の概要: Adversarial Laser Beam: Effective Physical-World Attack to DNNs in a
Blink
- arxiv url: http://arxiv.org/abs/2103.06504v1
- Date: Thu, 11 Mar 2021 07:03:21 GMT
- ステータス: 処理完了
- システム内更新日: 2021-03-12 14:52:24.598360
- Title: Adversarial Laser Beam: Effective Physical-World Attack to DNNs in a
Blink
- Title(参考訳): 逆レーザービーム:リンク内のDNNに対する効果的な物理世界攻撃
- Authors: Ranjie Duan, Xiaofeng Mao, A. K. Qin, Yun Yang, Yuefeng Chen, Shaokai
Ye, Yuan He
- Abstract要約: 我々は、ディープニューラルネットワーク(DNN)が簡単に騙されるレーザービームを単に使用して示す。
本稿では, レーザビームの物理パラメータの操作により, 対向攻撃を行うことのできる, 逆向レーザビーム(AdvLB$)と呼ばれる新しい攻撃法を提案する。
- 参考スコア(独自算出の注目度): 15.54571899946818
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Though it is well known that the performance of deep neural networks (DNNs)
degrades under certain light conditions, there exists no study on the threats
of light beams emitted from some physical source as adversarial attacker on
DNNs in a real-world scenario. In this work, we show by simply using a laser
beam that DNNs are easily fooled. To this end, we propose a novel attack method
called Adversarial Laser Beam ($AdvLB$), which enables manipulation of laser
beam's physical parameters to perform adversarial attack. Experiments
demonstrate the effectiveness of our proposed approach in both digital- and
physical-settings. We further empirically analyze the evaluation results and
reveal that the proposed laser beam attack may lead to some interesting
prediction errors of the state-of-the-art DNNs. We envisage that the proposed
$AdvLB$ method enriches the current family of adversarial attacks and builds
the foundation for future robustness studies for light.
- Abstract(参考訳): 特定の光条件下ではディープニューラルネットワーク(DNN)の性能が劣化することが知られているが、現実のシナリオでは、DNNの敵攻撃者として物理源から放出される光の脅威についての研究は存在しない。
本研究では、単にDNNが容易にだまされるレーザー光線を用いて示します。
そこで,本研究では,レーザービームの物理的パラメータを操作して逆攻撃を行う,adversarial laser beam (advlb$)と呼ばれる新しい攻撃手法を提案する。
デジタルおよび物理設定の両方において提案手法の有効性を示す実験を行った。
さらに評価結果を実証的に分析し,提案したレーザビーム攻撃が,最先端のDNNの予測誤差に繋がる可能性があることを明らかにした。
提案した$AdvLB$メソッドは、現在の敵攻撃のファミリーを強化し、将来の光に対する堅牢性研究の基盤を構築する。
関連論文リスト
- Adversarial Catoptric Light: An Effective, Stealthy and Robust
Physical-World Attack to DNNs [0.0]
本研究では, 自然現象である陰極光を用いて, 対向性摂動を発生させる新しい物理的攻撃, 対向性陰極光(AdvCL)を紹介する。
提案手法は, 有効性, ステルス性, 堅牢性の3つの側面で評価する。
攻撃成功率は83.5%で、ベースラインを超えています。
論文 参考訳(メタデータ) (2022-09-19T12:33:46Z) - Adversarial Color Projection: A Projector-based Physical Attack to DNNs [3.9477796725601872]
逆色投影(AdvCP)と呼ばれるブラックボックスプロジェクタによる物理的攻撃を提案する。
ImageNetのサブセットで97.60%の攻撃成功率を達成する一方、物理的な環境では100%の攻撃成功率を得る。
先進DNNを攻撃した場合, 実験結果から, 攻撃成功率85%以上が得られることが示された。
論文 参考訳(メタデータ) (2022-09-19T12:27:32Z) - Adversarial Zoom Lens: A Novel Physical-World Attack to DNNs [0.0]
本稿では,Adrial Zoom Lens (AdvZL) と呼ばれる新しい物理対向攻撃手法を実演する。
AdvZLはズームレンズを使って物理世界の画像をズームイン/アウトし、ターゲットの物体の特性を変えることなくDNNを騙す。
デジタル環境では,AdvZLに基づくデータセットを構築し,DNNに対する等スケール拡大画像の対角性を検証する。
物理環境では、ズームレンズを操作して対象物体の内外をズームインし、対向サンプルを生成する。
論文 参考訳(メタデータ) (2022-06-23T13:03:08Z) - Adversarial Laser Spot: Robust and Covert Physical-World Attack to DNNs [15.620269826381437]
逆レーザースポット(AdvLS)と呼ばれる光による物理的攻撃を提案する。
遺伝的アルゴリズムによってレーザースポットの物理パラメータを最適化し、物理的攻撃を行う。
昼間に物理的攻撃を行う最初の光ベースの物理的攻撃である。
論文 参考訳(メタデータ) (2022-06-02T13:15:08Z) - Adversarial Neon Beam: A Light-based Physical Attack to DNNs [17.555617901536404]
本研究では、対向ネオンビーム(AdvNB)と呼ばれる新しい光による攻撃を導入する。
このアプローチは,有効性,ステルス性,堅牢性という,3つの重要な基準に基づいて評価される。
一般的なネオンビームを摂動として使用することにより、提案した攻撃のステルス性を高め、物理的サンプルをより自然に見せることができる。
論文 参考訳(メタデータ) (2022-04-02T12:57:00Z) - Shadows can be Dangerous: Stealthy and Effective Physical-world
Adversarial Attack by Natural Phenomenon [79.33449311057088]
我々は、非常に一般的な自然現象であるシャドーによって摂動が生じる新しい種類の光対角運動例について研究する。
我々は,シミュレーション環境と実環境の両方において,この新たな攻撃の有効性を広く評価した。
論文 参考訳(メタデータ) (2022-03-08T02:40:18Z) - Robustness of Bayesian Neural Networks to White-Box Adversarial Attacks [55.531896312724555]
ベイジアンネットワーク(BNN)は、ランダム性を組み込むことで、敵の攻撃を扱うのに頑丈で適している。
我々はベイズ的推論(つまり変分ベイズ)をDenseNetアーキテクチャに融合させることで、BNN-DenseNetと呼ばれるBNNモデルを作成する。
逆向きに訓練されたBNNは、ほとんどの実験で非ベイズ的で逆向きに訓練されたBNNよりも優れています。
論文 参考訳(メタデータ) (2021-11-16T16:14:44Z) - The Feasibility and Inevitability of Stealth Attacks [63.14766152741211]
我々は、攻撃者が汎用人工知能システムにおける決定を制御できる新しい敵の摂動について研究する。
敵対的なデータ修正とは対照的に、ここで考慮する攻撃メカニズムには、AIシステム自体の変更が含まれる。
論文 参考訳(メタデータ) (2021-06-26T10:50:07Z) - SPAA: Stealthy Projector-based Adversarial Attacks on Deep Image
Classifiers [82.19722134082645]
本稿では,ステルスプロジェクタを用いた対向攻撃を提案する。
PCNetというディープニューラルネットワークを用いて実際のプロジェクトとキャプチャ操作を推定します。
実験の結果,SPAAは高い攻撃成功率を達成し,他の手法よりも優れていることがわかった。
論文 参考訳(メタデータ) (2020-12-10T18:14:03Z) - Adversarial Exposure Attack on Diabetic Retinopathy Imagery Grading [75.73437831338907]
糖尿病網膜症(DR)は、世界中の視覚障害の主要な原因である。
診断を助けるために、多くの最先端の作業が強力なディープニューラルネットワーク(DNN)を構築し、網膜基底画像(RFI)を介してDRを自動的にグレードする。
RFIは一般的に、不正グレードにつながる可能性のあるカメラ露出の問題によって影響を受ける。
本稿では,敵攻撃の観点からこの問題を考察する。
論文 参考訳(メタデータ) (2020-09-19T13:47:33Z) - Measurement-driven Security Analysis of Imperceptible Impersonation
Attacks [54.727945432381716]
本稿では,ディープニューラルネットワークを用いた顔認識システムの実用性について検討する。
皮膚の色,性別,年齢などの要因が,特定の標的に対する攻撃を行う能力に影響を及ぼすことを示す。
また,攻撃者の顔のさまざまなポーズや視点に対して堅牢なユニバーサルアタックを構築する可能性についても検討した。
論文 参考訳(メタデータ) (2020-08-26T19:27:27Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。