論文の概要: fakeWeather: Adversarial Attacks for Deep Neural Networks Emulating
Weather Conditions on the Camera Lens of Autonomous Systems
- arxiv url: http://arxiv.org/abs/2205.13807v1
- Date: Fri, 27 May 2022 07:49:31 GMT
- ステータス: 処理完了
- システム内更新日: 2022-05-30 15:23:46.065995
- Title: fakeWeather: Adversarial Attacks for Deep Neural Networks Emulating
Weather Conditions on the Camera Lens of Autonomous Systems
- Title(参考訳): fakeWeather: 自律システムのカメラレンズ上の気象条件をエミュレートするディープニューラルネットワークの敵攻撃
- Authors: Alberto Marchisio and Giovanni Caramia and Maurizio Martina and
Muhammad Shafique
- Abstract要約: 深層ニューラルネットワーク(DNN)を誤解させる可塑性摂動導入における自然気象条件の影響をエミュレートする。
このような大気の摂動がカメラレンズに与える影響を観察することで、私たちはパターンをモデル化し、雨や雪、干し草の影響を偽装するさまざまなマスクを作ります。
我々は,複数の畳み込みニューラルネットワークおよびカプセルネットワークモデルに対して提案したフェイクウェザー攻撃を検証し,このような対向的摂動の存在下での顕著な精度低下を報告した。
- 参考スコア(独自算出の注目度): 12.118084418840152
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Recently, Deep Neural Networks (DNNs) have achieved remarkable performances
in many applications, while several studies have enhanced their vulnerabilities
to malicious attacks. In this paper, we emulate the effects of natural weather
conditions to introduce plausible perturbations that mislead the DNNs. By
observing the effects of such atmospheric perturbations on the camera lenses,
we model the patterns to create different masks that fake the effects of rain,
snow, and hail. Even though the perturbations introduced by our attacks are
visible, their presence remains unnoticed due to their association with natural
events, which can be especially catastrophic for fully-autonomous and unmanned
vehicles. We test our proposed fakeWeather attacks on multiple Convolutional
Neural Network and Capsule Network models, and report noticeable accuracy drops
in the presence of such adversarial perturbations. Our work introduces a new
security threat for DNNs, which is especially severe for safety-critical
applications and autonomous systems.
- Abstract(参考訳): 近年、ディープニューラルネットワーク(DNN)は多くのアプリケーションで顕著なパフォーマンスを達成し、いくつかの研究で悪意のある攻撃に対する脆弱性が強化されている。
本稿では,自然気象条件の影響をエミュレートし,DNNを誤解させる可塑性摂動を導入する。
このような大気の摂動がカメラのレンズに与える影響を観察することで、雨、雪、ヘイルの効果を偽装する異なるマスクを作るパターンをモデル化する。
我々の攻撃によって引き起こされる摂動は見えるが、その存在は自然現象と関連しているため、特に完全自律型および無人の車両にとって壊滅的なものである。
提案する複数の畳み込みニューラルネットワークとカプセルネットワークモデルに対するフェイクウェザー攻撃を検証し,そのような摂動の存在下での精度低下を報告した。
当社の作業では,安全クリティカルなアプリケーションや自律システムでは特に深刻なdnnに対する新たなセキュリティ脅威が導入されています。
関連論文リスト
- Robust ADAS: Enhancing Robustness of Machine Learning-based Advanced Driver Assistance Systems for Adverse Weather [5.383130566626935]
本稿では,デノイングディープニューラルネットワークを前処理ステップとして,悪天候画像から晴天画像へ変換する。
ドライバーの視認性が向上し、悪天候下での安全なナビゲーションに欠かせない。
論文 参考訳(メタデータ) (2024-07-02T18:03:52Z) - Investigating Human-Identifiable Features Hidden in Adversarial
Perturbations [54.39726653562144]
我々の研究では、最大5つの攻撃アルゴリズムを3つのデータセットにわたって探索する。
対人摂動における人間の識別可能な特徴を同定する。
画素レベルのアノテーションを用いて、そのような特徴を抽出し、ターゲットモデルに妥協する能力を実証する。
論文 参考訳(メタデータ) (2023-09-28T22:31:29Z) - Adversarial Camouflage for Node Injection Attack on Graphs [64.5888846198005]
グラフニューラルネットワーク(GNN)に対するノードインジェクション攻撃は、GNNのパフォーマンスを高い攻撃成功率で低下させる能力のため、近年注目を集めている。
本研究は,これらの攻撃が現実的なシナリオでしばしば失敗することを示す。
これを解決するため,我々はカモフラージュノードインジェクション攻撃(camouflage node Injection attack)に取り組んだ。
論文 参考訳(メタデータ) (2022-08-03T02:48:23Z) - Towards Robust Rain Removal Against Adversarial Attacks: A Comprehensive
Benchmark Analysis and Beyond [85.06231315901505]
雨の除去は、画像やビデオから雨の流れを取り除き、雨による破壊的な影響を減らすことを目的としている。
本稿では, 深層学習に基づく雨害防止手法の強靭性に関する総合的な研究を初めて行おうとする。
論文 参考訳(メタデータ) (2022-03-31T10:22:24Z) - Real-World Adversarial Examples involving Makeup Application [58.731070632586594]
フルフェイスメイクを用いた身体的敵攻撃を提案する。
我々の攻撃は、色や位置関連エラーなどのメークアップアプリケーションにおける手動エラーを効果的に克服できる。
論文 参考訳(メタデータ) (2021-09-04T05:29:28Z) - Physical Adversarial Attacks on an Aerial Imagery Object Detector [32.99554861896277]
本研究は,航空画像に対する物理的敵攻撃に関する最初の試みの1つを示す。
本研究では,空域における物体検出装置に対する物理的敵攻撃の有効性を評価するための新しい実験と指標を考案した。
以上の結果から,衛星画像処理のための深層ニューラルネットワークに対する物理的敵攻撃によって引き起こされる触知可能な脅威が示唆された。
論文 参考訳(メタデータ) (2021-08-26T12:53:41Z) - Exploiting Vulnerabilities in Deep Neural Networks: Adversarial and
Fault-Injection Attacks [14.958919450708157]
まず、ニューラルネットワークベースのシステムのセキュリティ攻撃を生成するために悪用できるさまざまな脆弱性について議論します。
次に、DNNに対する既存の逆方向およびフォールトインジェクションに基づく攻撃の概要を示す。
論文 参考訳(メタデータ) (2021-05-05T08:11:03Z) - Investigating the significance of adversarial attacks and their relation
to interpretability for radar-based human activity recognition systems [2.081492937901262]
レーダベースのCNNは、ホワイトボックス攻撃とブラックボックス攻撃の両方に影響を受けやすいことを示す。
我々はまた、レーダーベースのCNNによって行われた予測を変更することが可能である極端な敵対攻撃ケースの存在を明らかにします。
論文 参考訳(メタデータ) (2021-01-26T05:16:16Z) - Robust Attacks on Deep Learning Face Recognition in the Physical World [48.909604306342544]
FaceAdvは、敵のステッカーを使ってFRシステムを騙す物理世界の攻撃だ。
主にステッカージェネレータとトランスフォーマーで構成され、前者は異なる形状のステッカーを作れる。
3種類のFRシステムに対するFaceAdvの有効性を評価するための広範囲な実験を行った。
論文 参考訳(メタデータ) (2020-11-27T02:24:43Z) - Measurement-driven Security Analysis of Imperceptible Impersonation
Attacks [54.727945432381716]
本稿では,ディープニューラルネットワークを用いた顔認識システムの実用性について検討する。
皮膚の色,性別,年齢などの要因が,特定の標的に対する攻撃を行う能力に影響を及ぼすことを示す。
また,攻撃者の顔のさまざまなポーズや視点に対して堅牢なユニバーサルアタックを構築する可能性についても検討した。
論文 参考訳(メタデータ) (2020-08-26T19:27:27Z) - A Little Fog for a Large Turn [26.556198529742122]
霧などの悪天候条件がこれらのシステムの予測に大きく影響する自律航法の分野を考察する。
これらの気象条件は、モデルをテストするのに役立つ自然の敵のように振る舞うことができる。
我々の研究は、知覚的類似性に基づく、より自然で一般的な対人摂動の定義も提示している。
論文 参考訳(メタデータ) (2020-01-16T15:09:48Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。