論文の概要: REAP: A Large-Scale Realistic Adversarial Patch Benchmark
- arxiv url: http://arxiv.org/abs/2212.05680v1
- Date: Mon, 12 Dec 2022 03:35:05 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-13 14:49:58.591827
- Title: REAP: A Large-Scale Realistic Adversarial Patch Benchmark
- Title(参考訳): REAP: 大規模で現実的な競合するパッチベンチマーク
- Authors: Nabeel Hingun, Chawin Sitawarin, Jerry Li, David Wagner
- Abstract要約: アドリアパッチ攻撃は、自動運転車のようなカメラに依存するサイバー物理システムにとって重大な脅威となる。
実際の画像に対するパッチアタックをユーザが評価できるデジタルベンチマークであるREAPベンチマークを提案する。
Mapillary Vistasデータセットの上に構築された私たちのベンチマークには、14,000以上のトラフィックサインが含まれています。
- 参考スコア(独自算出の注目度): 14.592160511458664
- License: http://creativecommons.org/licenses/by-sa/4.0/
- Abstract: Machine learning models are known to be susceptible to adversarial
perturbation. One famous attack is the adversarial patch, a sticker with a
particularly crafted pattern that makes the model incorrectly predict the
object it is placed on. This attack presents a critical threat to
cyber-physical systems that rely on cameras such as autonomous cars. Despite
the significance of the problem, conducting research in this setting has been
difficult; evaluating attacks and defenses in the real world is exceptionally
costly while synthetic data are unrealistic. In this work, we propose the REAP
(REalistic Adversarial Patch) benchmark, a digital benchmark that allows the
user to evaluate patch attacks on real images, and under real-world conditions.
Built on top of the Mapillary Vistas dataset, our benchmark contains over
14,000 traffic signs. Each sign is augmented with a pair of geometric and
lighting transformations, which can be used to apply a digitally generated
patch realistically onto the sign. Using our benchmark, we perform the first
large-scale assessments of adversarial patch attacks under realistic
conditions. Our experiments suggest that adversarial patch attacks may present
a smaller threat than previously believed and that the success rate of an
attack on simpler digital simulations is not predictive of its actual
effectiveness in practice. We release our benchmark publicly at
https://github.com/wagner-group/reap-benchmark.
- Abstract(参考訳): 機械学習モデルは敵の摂動に影響を受けやすいことが知られている。
有名な攻撃のひとつがadversarial patchで、特にデザインされたパターンを持つステッカーで、モデルがオブジェクトを誤って予測します。
この攻撃は、自動運転車のようなカメラに依存するサイバー物理システムに重大な脅威をもたらす。
現実の世界における攻撃や防御の評価は、合成データが非現実的であるのに対して、非常にコストがかかる。
本研究では,実際の画像に対するパッチ攻撃や実環境下でのパッチ攻撃を評価するデジタルベンチマークであるREAP(Realistic Adversarial Patch)ベンチマークを提案する。
mapillary vistasデータセット上に構築されたベンチマークには、14,000以上のトラフィックサインが含まれています。
それぞれのサインは幾何変換と照明変換で拡張され、デジタル的に生成されたパッチをリアルにサインに応用することができる。
本ベンチマークを用いて,現実的な条件下での敵パッチ攻撃の大規模評価を行った。
実験の結果, 敵のパッチ攻撃は従来考えられていたよりも脅威が少なく, 単純なデジタルシミュレーションに対する攻撃の成功率は実際の効果を予測できないことが示唆された。
私たちはベンチマークをhttps://github.com/wagner-group/reap-benchmarkで公開しています。
関連論文リスト
- TPatch: A Triggered Physical Adversarial Patch [19.768494127237393]
音響信号によって引き起こされる物理的対向パッチであるTPatchを提案する。
運転者の疑念を避けるため,コンテンツベースカモフラージュ法と攻撃強化法を提案する。
論文 参考訳(メタデータ) (2023-12-30T06:06:01Z) - Empirical Evaluation of Physical Adversarial Patch Attacks Against
Overhead Object Detection Models [2.2588953434934416]
逆パッチ(Adversarial patch)は、ニューラルネットワークベースのコンピュータビジョンモデルに悪用されたイメージである。
近年の研究では、これらの攻撃が物理的世界への移動に成功できることが示されている。
我々はさらに、より困難な条件下で、物理的世界における敵パッチ攻撃の有効性を検証した。
論文 参考訳(メタデータ) (2022-06-25T20:05:11Z) - On the Real-World Adversarial Robustness of Real-Time Semantic
Segmentation Models for Autonomous Driving [59.33715889581687]
現実世界の敵対的な例(通常はパッチの形で)の存在は、安全クリティカルなコンピュータビジョンタスクにおけるディープラーニングモデルの使用に深刻な脅威をもたらす。
本稿では,異なる種類の対立パッチを攻撃した場合のセマンティックセグメンテーションモデルのロバスト性を評価する。
画素の誤分類を誘導する攻撃者の能力を改善するために, 新たな損失関数を提案する。
論文 参考訳(メタデータ) (2022-01-05T22:33:43Z) - Segment and Complete: Defending Object Detectors against Adversarial
Patch Attacks with Robust Patch Detection [142.24869736769432]
敵のパッチ攻撃は最先端の物体検出器に深刻な脅威をもたらす。
パッチ攻撃に対して物体検出器を防御するフレームワークであるSegment and Complete Defense (SAC)を提案する。
SACは、物理的パッチ攻撃の標的攻撃成功率を著しく低減できることを示す。
論文 参考訳(メタデータ) (2021-12-08T19:18:48Z) - Evaluating the Robustness of Semantic Segmentation for Autonomous
Driving against Real-World Adversarial Patch Attacks [62.87459235819762]
自動運転車のような現実のシナリオでは、現実の敵例(RWAE)にもっと注意を払わなければならない。
本稿では,デジタルおよび実世界の敵対パッチの効果を検証し,一般的なSSモデルのロバスト性を詳細に評価する。
論文 参考訳(メタデータ) (2021-08-13T11:49:09Z) - An Empirical Review of Adversarial Defenses [0.913755431537592]
このようなシステムの基礎を形成するディープニューラルネットワークは、敵対攻撃と呼ばれる特定のタイプの攻撃に非常に影響を受けやすい。
ハッカーは、最小限の計算でも、敵対的な例(他のクラスに属するイメージやデータポイント)を生成し、そのようなアルゴリズムの基礎を崩壊させることができます。
本稿では,DropoutとDenoising Autoencodersの2つの効果的な手法を示し,そのような攻撃がモデルを騙すのを防ぐことに成功したことを示す。
論文 参考訳(メタデータ) (2020-12-10T09:34:41Z) - Targeted Physical-World Attention Attack on Deep Learning Models in Road
Sign Recognition [79.50450766097686]
本稿では,現実の道路標識攻撃に対するTAA手法を提案する。
実験の結果,TAA法は攻撃成功率(約10%)を向上し,RP2法と比較して摂動損失(約4分の1)を減少させることがわかった。
論文 参考訳(メタデータ) (2020-10-09T02:31:34Z) - Learning to Attack: Towards Textual Adversarial Attacking in Real-world
Situations [81.82518920087175]
敵攻撃は、敵の例でディープニューラルネットワークを騙すことを目的としている。
本稿では、攻撃履歴から学習し、より効率的に攻撃を開始することができる強化学習に基づく攻撃モデルを提案する。
論文 参考訳(メタデータ) (2020-09-19T09:12:24Z) - Temporal Sparse Adversarial Attack on Sequence-based Gait Recognition [56.844587127848854]
このような攻撃に対して,最先端の歩行認識モデルが脆弱であることを示す。
生成した対向ネットワークに基づくアーキテクチャを用いて、対向的な高品質な歩行シルエットやビデオフレームを意味的に生成する。
実験結果から, フレームの1分の1しか攻撃されない場合, 対象モデルの精度は劇的に低下することがわかった。
論文 参考訳(メタデータ) (2020-02-22T10:08:42Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。