論文の概要: REVAMP: Automated Simulations of Adversarial Attacks on Arbitrary
Objects in Realistic Scenes
- arxiv url: http://arxiv.org/abs/2310.12243v1
- Date: Wed, 18 Oct 2023 18:28:44 GMT
- ステータス: 処理完了
- システム内更新日: 2023-10-20 18:17:50.389927
- Title: REVAMP: Automated Simulations of Adversarial Attacks on Arbitrary
Objects in Realistic Scenes
- Title(参考訳): REVAMP: リアルな場面における任意物体に対する敵攻撃の自動シミュレーション
- Authors: Matthew Hull, Zijie J. Wang, and Duen Horng Chau
- Abstract要約: ディープラーニングモデルは、攻撃者が環境に敵オブジェクトを配置できる敵攻撃に対して脆弱であり、誤分類につながる。
我々は、任意のオブジェクトでアタックシナリオを作成するための最初のツールである、使いやすくて使いやすいPythonライブラリであるREVAMPを紹介した。
我々は、様々なシーンパラメータを制御しながら、選択したオブジェクトに対して逆テクスチャを生成するために、REVAMPを試してみるよう聴衆に紹介し、招待する。
- 参考スコア(独自算出の注目度): 33.138002744768634
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Deep Learning models, such as those used in an autonomous vehicle are
vulnerable to adversarial attacks where an attacker could place an adversarial
object in the environment, leading to mis-classification. Generating these
adversarial objects in the digital space has been extensively studied, however
successfully transferring these attacks from the digital realm to the physical
realm has proven challenging when controlling for real-world environmental
factors. In response to these limitations, we introduce REVAMP, an easy-to-use
Python library that is the first-of-its-kind tool for creating attack scenarios
with arbitrary objects and simulating realistic environmental factors,
lighting, reflection, and refraction. REVAMP enables researchers and
practitioners to swiftly explore various scenarios within the digital realm by
offering a wide range of configurable options for designing experiments and
using differentiable rendering to reproduce physically plausible adversarial
objects. We will demonstrate and invite the audience to try REVAMP to produce
an adversarial texture on a chosen object while having control over various
scene parameters. The audience will choose a scene, an object to attack, the
desired attack class, and the number of camera positions to use. Then, in real
time, we show how this altered texture causes the chosen object to be
mis-classified, showcasing the potential of REVAMP in real-world scenarios.
REVAMP is open-source and available at https://github.com/poloclub/revamp.
- Abstract(参考訳): 自動運転車で使用されるようなディープラーニングモデルは、攻撃者が環境に敵の物体を配置できる敵攻撃に対して脆弱であり、誤分類につながる。
デジタル空間におけるこれらの敵対的物体の生成は広く研究されているが、実際の環境要因を制御する上では、これらの攻撃をデジタル空間から物理的領域に転送することに成功している。
このライブラリは任意のオブジェクトで攻撃シナリオを作成し、現実的な環境要因、照明、反射、屈折をシミュレートする。
REVAMPにより、研究者や実践者は、実験を設計するための幅広い構成可能な選択肢を提供することで、デジタル領域内の様々なシナリオを迅速に探索することができる。
我々は,様々なシーンパラメータを制御しながら,選択したオブジェクトに対して逆テクスチャを生成するために,REVAMPを試してみる。
観客はシーン、攻撃対象、所望のアタッククラス、使用するカメラ位置を選択する。
そして、この変化したテクスチャが、選択したオブジェクトを誤って分類し、現実のシナリオにおけるREVAMPの可能性を示す。
REVAMPはオープンソースでhttps://github.com/poloclub/revamp.comから入手できる。
関連論文リスト
- Why Don't You Clean Your Glasses? Perception Attacks with Dynamic
Optical Perturbations [17.761200546223442]
敵の攻撃を物理的世界に適応させることが、攻撃者にとって望ましい。
EvilEyeは、ディスプレイを透過的に利用し、ダイナミックな物理的逆転の例を生成する、中間者認識攻撃である。
論文 参考訳(メタデータ) (2023-07-24T21:16:38Z) - CrowdSim2: an Open Synthetic Benchmark for Object Detectors [0.7223361655030193]
本稿では,人や車両検出に適した画像の合成コレクションであるCrowdSim2を公開・公開する。
それは、現実世界に似た様々な合成シナリオから集められた何千もの画像で構成されており、興味のある要素は様々である。
我々は、この新しいベンチマークを最先端の検出器のテストグラウンドとして利用し、シミュレートされたシナリオが、制御された環境でのパフォーマンスを測定する貴重なツールであることを示した。
論文 参考訳(メタデータ) (2023-04-11T09:35:57Z) - Leveraging Local Patch Differences in Multi-Object Scenes for Generative
Adversarial Attacks [48.66027897216473]
マルチオブジェクト(複数支配対象)画像を用いた対向的摂動を生成するための,より実践的な問題に取り組む。
本稿では,複数場面の特徴空間における特徴空間の局所的差を利用した新たな生成的攻撃(ローカルパッチ差(LPD-Attack))を提案する。
提案手法は, 異なるホワイトボックスとブラックボックスの設定で評価した場合, 非常に伝達性の高い摂動を伴うベースライン生成攻撃よりも優れる。
論文 参考訳(メタデータ) (2022-09-20T17:36:32Z) - GAMA: Generative Adversarial Multi-Object Scene Attacks [48.33120361498787]
本稿では,多目的シーンに対する敵攻撃に対する生成モデルを用いた最初のアプローチを提案する。
我々はこの攻撃アプローチをGAMA(Generative Adversarial Multi-Object scene Attacks)と呼ぶ。
論文 参考訳(メタデータ) (2022-09-20T06:40:54Z) - Shadows can be Dangerous: Stealthy and Effective Physical-world
Adversarial Attack by Natural Phenomenon [79.33449311057088]
我々は、非常に一般的な自然現象であるシャドーによって摂動が生じる新しい種類の光対角運動例について研究する。
我々は,シミュレーション環境と実環境の両方において,この新たな攻撃の有効性を広く評価した。
論文 参考訳(メタデータ) (2022-03-08T02:40:18Z) - On the Real-World Adversarial Robustness of Real-Time Semantic
Segmentation Models for Autonomous Driving [59.33715889581687]
現実世界の敵対的な例(通常はパッチの形で)の存在は、安全クリティカルなコンピュータビジョンタスクにおけるディープラーニングモデルの使用に深刻な脅威をもたらす。
本稿では,異なる種類の対立パッチを攻撃した場合のセマンティックセグメンテーションモデルのロバスト性を評価する。
画素の誤分類を誘導する攻撃者の能力を改善するために, 新たな損失関数を提案する。
論文 参考訳(メタデータ) (2022-01-05T22:33:43Z) - Nonprehensile Riemannian Motion Predictive Control [57.295751294224765]
本稿では,リアル・ツー・シムの報酬分析手法を導入し,リアルなロボット・プラットフォームに対する行動の可能性を確実に予測する。
連続的なアクション空間でオブジェクトを反応的にプッシュするクローズドループコントローラを作成します。
我々は,RMPCが乱雑な環境だけでなく,乱雑な環境においても頑健であり,ベースラインよりも優れていることを観察した。
論文 参考訳(メタデータ) (2021-11-15T18:50:04Z) - DPA: Learning Robust Physical Adversarial Camouflages for Object
Detectors [5.598600329573922]
そこで本研究では,Dense Proposals Attack (DPA) を提案し,検出器の頑健で物理的,ターゲットとした対向カモフラージュを学習する。
カモフラージュは、任意の視点と異なる照明条件下で撮影されたとき、敵対的であり続けるため、頑丈である。
We build a virtual 3D scene using the Unity Simulation engine to evaluate fair and reproducally different physical attack。
論文 参考訳(メタデータ) (2021-09-01T00:18:17Z) - Evaluating the Robustness of Semantic Segmentation for Autonomous
Driving against Real-World Adversarial Patch Attacks [62.87459235819762]
自動運転車のような現実のシナリオでは、現実の敵例(RWAE)にもっと注意を払わなければならない。
本稿では,デジタルおよび実世界の敵対パッチの効果を検証し,一般的なSSモデルのロバスト性を詳細に評価する。
論文 参考訳(メタデータ) (2021-08-13T11:49:09Z) - CCA: Exploring the Possibility of Contextual Camouflage Attack on Object
Detection [16.384831731988204]
対象検出器の性能に影響を及ぼすためのコンテキストカモフラージュ攻撃(CCA)アルゴリズムを提案する。
本稿では,フォトリアリスティック・シミュレートされた環境における進化的探索戦略と対向機械学習の相互作用について述べる。
提案されたカモフラージュは、最先端の物体検出器の多くに有効であることが検証されている。
論文 参考訳(メタデータ) (2020-08-19T06:16:10Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。