論文の概要: Evaluating Adversarial Attacks on Traffic Sign Classifiers beyond Standard Baselines
- arxiv url: http://arxiv.org/abs/2412.09150v1
- Date: Thu, 12 Dec 2024 10:36:26 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-12-13 13:29:34.170478
- Title: Evaluating Adversarial Attacks on Traffic Sign Classifiers beyond Standard Baselines
- Title(参考訳): 標準基準を超えた交通標識分類器の敵攻撃評価
- Authors: Svetlana Pavlitska, Leopold Müller, J. Marius Zöllner,
- Abstract要約: 交通標識分類モデルに対するアドリアック攻撃は、実世界で最初に成功した試みの1つであった。
モデルアーキテクチャをデータセットから切り離し、さらなるジェネリックモデルで評価し、公正な比較を行う。
その結果, LISA-CNN や GTSRB-CNN のような標準ベースラインは, 一般的なベースラインよりもはるかに感受性が高いことがわかった。
- 参考スコア(独自算出の注目度): 12.540350788516095
- License:
- Abstract: Adversarial attacks on traffic sign classification models were among the first successfully tried in the real world. Since then, the research in this area has been mainly restricted to repeating baseline models, such as LISA-CNN or GTSRB-CNN, and similar experiment settings, including white and black patches on traffic signs. In this work, we decouple model architectures from the datasets and evaluate on further generic models to make a fair comparison. Furthermore, we compare two attack settings, inconspicuous and visible, which are usually regarded without direct comparison. Our results show that standard baselines like LISA-CNN or GTSRB-CNN are significantly more susceptible than the generic ones. We, therefore, suggest evaluating new attacks on a broader spectrum of baselines in the future. Our code is available at \url{https://github.com/KASTEL-MobilityLab/attacks-on-traffic-sign-recognition/}.
- Abstract(参考訳): 交通標識分類モデルに対する敵対的攻撃は、実世界で最初に試みられた試みの1つであった。
それ以来、この領域の研究は主にLISA-CNNやGTSRB-CNNといったベースラインモデルや、交通標識の白と黒のパッチを含む同様の実験設定に制限されてきた。
本研究では、モデルアーキテクチャをデータセットから切り離し、さらに汎用的なモデルで評価し、公正な比較を行う。
さらに,非目立たずかつ目に見える2つのアタック・セッティングを,直接比較せずに比較する。
その結果, LISA-CNN や GTSRB-CNN のような標準ベースラインは, 一般的なベースラインよりもはるかに感受性が高いことがわかった。
そこで我々は,今後,幅広いベースラインに対する新たな攻撃を評価することを提案する。
我々のコードは \url{https://github.com/KASTEL-MobilityLab/ attacks-on-traffic-sign-recognition/} で利用可能です。
関連論文リスト
- A Realistic Threat Model for Large Language Model Jailbreaks [87.64278063236847]
本研究では,ジェイルブレイク攻撃の原理的比較のための統一的脅威モデルを提案する。
私たちの脅威モデルは、パープレキシティの制約を組み合わせることで、ジェイルブレイクが自然のテキストからどれだけ逸脱するかを測定します。
我々は、この新しい現実的な脅威モデルに人気のある攻撃を適用する。
論文 参考訳(メタデータ) (2024-10-21T17:27:01Z) - AdvQDet: Detecting Query-Based Adversarial Attacks with Adversarial Contrastive Prompt Tuning [93.77763753231338]
CLIP画像エンコーダを微調整し、2つの中間対向クエリに対して同様の埋め込みを抽出するために、ACPT(Adversarial Contrastive Prompt Tuning)を提案する。
我々は,ACPTが7つの最先端クエリベースの攻撃を検出できることを示す。
また,ACPTは3種類のアダプティブアタックに対して堅牢であることを示す。
論文 参考訳(メタデータ) (2024-08-04T09:53:50Z) - Towards Evaluating Transfer-based Attacks Systematically, Practically,
and Fairly [79.07074710460012]
ディープニューラルネットワーク(DNN)の敵対的脆弱性に大きな注目を集めている。
ブラックボックスDNNモデルを騙すための転送ベース手法が増えている。
30以上のメソッドを実装した転送ベースアタックベンチマーク(TA-Bench)を確立する。
論文 参考訳(メタデータ) (2023-11-02T15:35:58Z) - Quantization Aware Attack: Enhancing Transferable Adversarial Attacks by Model Quantization [57.87950229651958]
量子ニューラルネットワーク(QNN)は、異常な一般化性のため、リソース制約のあるシナリオに注目が集まっている。
従来の研究では、ビット幅の異なるQNN間で転送性を実現することは困難であった。
マルチビット学習目的のQNN代替モデルを微調整するテキスト品質認識攻撃(QAA)を提案する。
論文 参考訳(メタデータ) (2023-05-10T03:46:53Z) - Black-box Node Injection Attack for Graph Neural Networks [29.88729779937473]
被害者のGNNモデルを回避するためにノードを注入する可能性について検討する。
具体的には,グラフ強化学習フレームワークGA2Cを提案する。
本稿では,既存の最先端手法よりもGA2Cの方が優れた性能を示す。
論文 参考訳(メタデータ) (2022-02-18T19:17:43Z) - Unveiling the potential of Graph Neural Networks for robust Intrusion
Detection [2.21481607673149]
本稿では,グラフとして構造化された攻撃の流れパターンを学習するための新しいグラフニューラルネットワーク(GNN)モデルを提案する。
我々のモデルは従来の実験と同等の精度を維持することができる一方、最先端のML技術は敵攻撃下で50%の精度(F1スコア)を低下させる。
論文 参考訳(メタデータ) (2021-07-30T16:56:39Z) - Discriminator-Free Generative Adversarial Attack [87.71852388383242]
生成的ベースの敵攻撃は、この制限を取り除くことができる。
ASymmetric Saliency-based Auto-Encoder (SSAE) は摂動を生成する。
SSAEが生成した敵の例は、広く使われているモデルを崩壊させるだけでなく、優れた視覚的品質を実現する。
論文 参考訳(メタデータ) (2021-07-20T01:55:21Z) - Black-box Adversarial Attacks in Autonomous Vehicle Technology [4.215251065887861]
ブラックボックスの逆転攻撃は、自動運転車が他の車両や歩行者に衝突する重要なシーン要素の重大な誤分類を引き起こします。
転送ベース攻撃法におけるWhite-box Sourceの使用を克服するために,Modified Simple Black-box attack (M-SimBA) と呼ばれる新しいクエリベースの攻撃手法を提案する。
提案モデルは, 伝達型投影勾配降下(t-pgd), simbaといった既存モデルよりも収束時間, 混乱したクラス確率分布の平坦化, 真のクラスに対する信頼度の低い逆サンプルの生成に優れることを示した。
論文 参考訳(メタデータ) (2021-01-15T13:18:18Z) - Generalized Insider Attack Detection Implementation using NetFlow Data [0.6236743421605786]
ネットワークデータを用いて攻撃を識別する手法について検討する。
我々の研究は、One-Class SVMやbi-clusteringのような教師なしの機械学習技術に基づいています。
われわれのアプローチは、現実的な環境でインサイダー攻撃検出のための有望なツールであることを示す。
論文 参考訳(メタデータ) (2020-10-27T14:00:31Z) - Towards More Practical Adversarial Attacks on Graph Neural Networks [14.78539966828287]
グラフニューラルネットワーク(GNN)に対するブラックボックス攻撃を,新規で現実的な制約の下で検討する。
我々は,GNNモデルの構造的帰納バイアスが,この種の攻撃に有効であることを示す。
論文 参考訳(メタデータ) (2020-06-09T05:27:39Z) - Bias-based Universal Adversarial Patch Attack for Automatic Check-out [59.355948824578434]
逆の例は、ディープニューラルネットワーク(DNN)を簡単に誤解させる、知覚不能な摂動を持つ入力である。
既存の戦略は強力な一般化能力を持つ敵パッチを生成できなかった。
本稿では,強い一般化能力を持つクラス非依存の普遍的敵パッチを生成するためのバイアスベースのフレームワークを提案する。
論文 参考訳(メタデータ) (2020-05-19T07:38:54Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。