論文の概要: Cross-Model Transferability of Adversarial Patches in Real-time Segmentation for Autonomous Driving
- arxiv url: http://arxiv.org/abs/2502.16012v1
- Date: Sat, 22 Feb 2025 00:03:53 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-02-25 15:57:48.017044
- Title: Cross-Model Transferability of Adversarial Patches in Real-time Segmentation for Autonomous Driving
- Title(参考訳): 自律走行におけるリアルタイムセグメンテーションにおける対向パッチのクロスモデル伝達性
- Authors: Prashant Shekhar, Bidur Devkota, Dumindu Samaraweera, Laxima Niure Kandel, Manoj Babu,
- Abstract要約: アドリラル攻撃はディープラーニングモデル、特に医療や自動運転といった安全クリティカルなアプリケーションに重大な脅威をもたらす。
近年、パッチベースの攻撃は、その「ドラッグアンドドロップ」の性質により、リアルタイムの推論シナリオにおいて有効であることが示されている。
本稿では,自律走行車に対してより現実的な,EOT(Prestantation Over Transformation)に基づく対向パッチ攻撃を提案する。
- 参考スコア(独自算出の注目度): 0.2120527246868857
- License:
- Abstract: Adversarial attacks pose a significant threat to deep learning models, particularly in safety-critical applications like healthcare and autonomous driving. Recently, patch based attacks have demonstrated effectiveness in real-time inference scenarios owing to their 'drag and drop' nature. Following this idea for Semantic Segmentation (SS), here we propose a novel Expectation Over Transformation (EOT) based adversarial patch attack that is more realistic for autonomous vehicles. To effectively train this attack we also propose a 'simplified' loss function that is easy to analyze and implement. Using this attack as our basis, we investigate whether adversarial patches once optimized on a specific SS model, can fool other models or architectures. We conduct a comprehensive cross-model transferability analysis of adversarial patches trained on SOTA Convolutional Neural Network (CNN) models such PIDNet-S, PIDNet-M and PIDNet-L, among others. Additionally, we also include the Segformer model to study transferability to Vision Transformers (ViTs). All of our analysis is conducted on the widely used Cityscapes dataset. Our study reveals key insights into how model architectures (CNN vs CNN or CNN vs. Transformer-based) influence attack susceptibility. In particular, we conclude that although the transferability (effectiveness) of attacks on unseen images of any dimension is really high, the attacks trained against one particular model are minimally effective on other models. And this was found to be true for both ViT and CNN based models. Additionally our results also indicate that for CNN-based models, the repercussions of patch attacks are local, unlike ViTs. Per-class analysis reveals that simple-classes like 'sky' suffer less misclassification than others. The code for the project is available at: https://github.com/p-shekhar/adversarial-patch-transferability
- Abstract(参考訳): 敵対的攻撃は、ディープラーニングモデル、特に医療や自動運転といった安全クリティカルなアプリケーションに重大な脅威をもたらす。
近年、パッチベースの攻撃は、その「ドラッグアンドドロップ」の性質により、リアルタイムの推論シナリオにおいて有効であることが示されている。
本稿では,このセマンティックセグメンテーション(SS)の考え方に倣って,自律走行車においてより現実的な,新しいEOTベースの対向パッチアタックを提案する。
この攻撃を効果的に訓練するために、分析や実装が容易な'simplified'損失関数も提案します。
この攻撃をベースとして、特定のSSモデルに一度最適化された敵パッチが、他のモデルやアーキテクチャを騙すことができるかどうかを調査する。
我々は, PIDNet-S, PIDNet-M, PIDNet-L など, SOTA Convolutional Neural Network (CNN) モデルで訓練された敵パッチの包括的クロスモデル転送可能性解析を行う。
また、視覚変換器(ViT)への転送可能性を研究するためのSegformerモデルも含んでいる。
分析はすべて、広く使われているCityscapesデータセットに基づいて行われる。
本研究は,モデルアーキテクチャ (CNN vs CNN vs CNN vs CNN vs. Transformer-based) の攻撃感受性に対する影響に関する重要な知見を明らかにする。
特に、任意の次元の未確認画像に対する攻撃の伝達可能性(有効性)は極めて高いが、ある特定のモデルに対して訓練された攻撃は、他のモデルに対して最小限に有効である。
そして、これはViTとCNNベースのモデルの両方に当てはまることがわかった。
さらに, この結果から, CNN ベースのモデルでは, パッチアタックに対する影響は ViT と異なり局所的であることが示唆された。
クラスごとの分析では、'sky'のような単純なクラスは、他のクラスよりも誤分類が少ないことが分かる。
プロジェクトのコードは、https://github.com/p-shekhar/adversarial-patch-transferability.comで公開されている。
関連論文リスト
- Downstream Transfer Attack: Adversarial Attacks on Downstream Models with Pre-trained Vision Transformers [95.22517830759193]
本稿では、事前訓練されたViTモデルから下流タスクへのこのような逆の脆弱性の伝達可能性について検討する。
DTAは攻撃成功率(ASR)が90%を超え、既存の手法をはるかに上回っていることを示す。
論文 参考訳(メタデータ) (2024-08-03T08:07:03Z) - Transferable Attack for Semantic Segmentation [59.17710830038692]
敵が攻撃し、ソースモデルから生成された敵の例がターゲットモデルを攻撃するのに失敗するのを観察します。
本研究では, セマンティックセグメンテーションのためのアンサンブルアタックを提案する。
論文 参考訳(メタデータ) (2023-07-31T11:05:55Z) - Quantization Aware Attack: Enhancing Transferable Adversarial Attacks by Model Quantization [57.87950229651958]
量子ニューラルネットワーク(QNN)は、異常な一般化性のため、リソース制約のあるシナリオに注目が集まっている。
従来の研究では、ビット幅の異なるQNN間で転送性を実現することは困難であった。
マルチビット学習目的のQNN代替モデルを微調整するテキスト品質認識攻撃(QAA)を提案する。
論文 参考訳(メタデータ) (2023-05-10T03:46:53Z) - Can Adversarial Examples Be Parsed to Reveal Victim Model Information? [62.814751479749695]
本研究では,データ固有の敵インスタンスから,データに依存しない被害者モデル(VM)情報を推測できるかどうかを問う。
我々は,135件の被害者モデルから生成された7種類の攻撃に対して,敵攻撃のデータセットを収集する。
単純な教師付きモデル解析ネットワーク(MPN)は、見えない敵攻撃からVM属性を推測できることを示す。
論文 参考訳(メタデータ) (2023-03-13T21:21:49Z) - Robust Models are less Over-Confident [10.42820615166362]
敵の訓練(AT)は、このような攻撃に対して堅牢性を達成することを目的としている。
我々は、高い堅牢な精度を達成するために、様々な敵に訓練されたモデルを経験的に分析する。
ATには興味深い副作用がある。それは、彼らの決定に非常に自信の持たないモデルに繋がる。
論文 参考訳(メタデータ) (2022-10-12T06:14:55Z) - Query Efficient Decision Based Sparse Attacks Against Black-Box Deep
Learning Models [9.93052896330371]
本研究では,進化型アルゴリズムであるSparseEvoを開発し,畳み込み型深層ニューラルネットワークと視覚変換器の両方に対して評価する。
SparseEvoは、未ターゲットとターゲットの両方の攻撃に対して、最先端のスパース攻撃よりもはるかに少ないモデルクエリを必要とする。
重要なことは、クエリ効率のよいSparseEvoと意思決定ベースの攻撃は、一般的に、デプロイされたシステムの安全性に関する新しい疑問を提起する。
論文 参考訳(メタデータ) (2022-01-31T21:10:47Z) - Evaluating the Robustness of Semantic Segmentation for Autonomous
Driving against Real-World Adversarial Patch Attacks [62.87459235819762]
自動運転車のような現実のシナリオでは、現実の敵例(RWAE)にもっと注意を払わなければならない。
本稿では,デジタルおよび実世界の敵対パッチの効果を検証し,一般的なSSモデルのロバスト性を詳細に評価する。
論文 参考訳(メタデータ) (2021-08-13T11:49:09Z) - Black-box Adversarial Attacks in Autonomous Vehicle Technology [4.215251065887861]
ブラックボックスの逆転攻撃は、自動運転車が他の車両や歩行者に衝突する重要なシーン要素の重大な誤分類を引き起こします。
転送ベース攻撃法におけるWhite-box Sourceの使用を克服するために,Modified Simple Black-box attack (M-SimBA) と呼ばれる新しいクエリベースの攻撃手法を提案する。
提案モデルは, 伝達型投影勾配降下(t-pgd), simbaといった既存モデルよりも収束時間, 混乱したクラス確率分布の平坦化, 真のクラスに対する信頼度の低い逆サンプルの生成に優れることを示した。
論文 参考訳(メタデータ) (2021-01-15T13:18:18Z) - Practical No-box Adversarial Attacks against DNNs [31.808770437120536]
我々は、攻撃者がモデル情報やトレーニングセットにアクセスしたり、モデルに問い合わせたりできない、ノンボックスの逆例を調査する。
非常に小さなデータセットでトレーニングを行うための3つのメカニズムを提案し、プロトタイプの再構築が最も効果的であることを示す。
提案手法は, システムの平均予測精度を15.40%に低下させ, 事前学習したArcfaceモデルから, 敵のサンプルを転送する攻撃と同等にする。
論文 参考訳(メタデータ) (2020-12-04T11:10:03Z) - Learning to Attack: Towards Textual Adversarial Attacking in Real-world
Situations [81.82518920087175]
敵攻撃は、敵の例でディープニューラルネットワークを騙すことを目的としている。
本稿では、攻撃履歴から学習し、より効率的に攻撃を開始することができる強化学習に基づく攻撃モデルを提案する。
論文 参考訳(メタデータ) (2020-09-19T09:12:24Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。