論文の概要: Distortion-Aware Adversarial Attacks on Bounding Boxes of Object Detectors
- arxiv url: http://arxiv.org/abs/2412.18815v1
- Date: Wed, 25 Dec 2024 07:51:57 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-12-30 17:26:39.536668
- Title: Distortion-Aware Adversarial Attacks on Bounding Boxes of Object Detectors
- Title(参考訳): 物体検出器のバウンディングボックスにおける歪み認識型敵攻撃
- Authors: Pham Phuc, Son Vuong, Khang Nguyen, Tuan Dang,
- Abstract要約: 本研究では, 物体検出装置を騙し, 最先端検出器の脆弱性を露呈する新しい手法を提案する。
本手法は, テスト段階における各クラスに対する信頼度予測に不可欠である, トレーニング中に物体の信頼度を摂動することで, 対向画像を生成することを目的とする。
提案手法を検証するために, YOLOv8, Faster R-CNN, RetinaNet, Swin Transformer などの最新の最先端モデルを含む, 異なる物体検出器に対する対向攻撃を行う。
- 参考スコア(独自算出の注目度): 1.3493547928462395
- License:
- Abstract: Deep learning-based object detection has become ubiquitous in the last decade due to its high accuracy in many real-world applications. With this growing trend, these models are interested in being attacked by adversaries, with most of the results being on classifiers, which do not match the context of practical object detection. In this work, we propose a novel method to fool object detectors, expose the vulnerability of state-of-the-art detectors, and promote later works to build more robust detectors to adversarial examples. Our method aims to generate adversarial images by perturbing object confidence scores during training, which is crucial in predicting confidence for each class in the testing phase. Herein, we provide a more intuitive technique to embed additive noises based on detected objects' masks and the training loss with distortion control over the original image by leveraging the gradient of iterative images. To verify the proposed method, we perform adversarial attacks against different object detectors, including the most recent state-of-the-art models like YOLOv8, Faster R-CNN, RetinaNet, and Swin Transformer. We also evaluate our technique on MS COCO 2017 and PASCAL VOC 2012 datasets and analyze the trade-off between success attack rate and image distortion. Our experiments show that the achievable success attack rate is up to $100$\% and up to $98$\% when performing white-box and black-box attacks, respectively. The source code and relevant documentation for this work are available at the following link: https://github.com/anonymous20210106/attack_detector
- Abstract(参考訳): ディープラーニングに基づくオブジェクト検出は、多くの現実世界のアプリケーションで高い精度で、過去10年間に普及してきた。
この傾向が拡大する中で、これらのモデルは敵に攻撃されることに関心があり、その結果のほとんどは分類器上で行われ、実際の物体検出の文脈と一致しない。
本研究では,物体検出装置を騙し,最先端検出器の脆弱性を露呈する新しい手法を提案する。
本手法は, テスト段階における各クラスに対する信頼度予測に不可欠である, トレーニング中に物体の信頼度を摂動することで, 対向画像を生成することを目的とする。
本稿では,検出した物体のマスクをベースとした付加音を埋め込むための直感的な手法と,反復画像の勾配を利用して原画像の歪み制御によるトレーニング損失について述べる。
提案手法を検証するために, YOLOv8, Faster R-CNN, RetinaNet, Swin Transformer などの最新の最先端モデルを含む, 異なる物体検出器に対する対向攻撃を行う。
また,MS COCO 2017 と PASCAL VOC 2012 のデータセット上での手法の評価を行い,攻撃成功率と画像歪みのトレードオフを解析した。
実験の結果、達成可能な攻撃率は、それぞれ、ホワイトボックスとブラックボックスの攻撃を行う場合、最大100ドル\%、最大980ドル\%であることがわかった。
https://github.com/anonymous20210106/ attack_detector.com/detector.com/detector.com
関連論文リスト
- Out-of-Bounding-Box Triggers: A Stealthy Approach to Cheat Object Detectors [18.23151352064318]
本稿では,境界ボックスの外側で動作し,モデルに検出不能なオブジェクトを描画する不明瞭な対向トリガを提案する。
高品質トリガ作成のためのFG技術とUAPGD(Universal Auto-PGD)最適化戦略を提案することにより、このアプローチをさらに強化する。
本手法の有効性を実験により検証し,デジタル環境と物理環境の両方で高い性能を示す。
論文 参考訳(メタデータ) (2024-10-14T02:15:48Z) - Object-fabrication Targeted Attack for Object Detection [54.10697546734503]
物体検出の敵攻撃は 標的攻撃と未標的攻撃を含む。
新たなオブジェクトファブリケーションターゲット攻撃モードは、特定のターゲットラベルを持つ追加の偽オブジェクトをファブリケートする検出器を誤解させる可能性がある。
論文 参考訳(メタデータ) (2022-12-13T08:42:39Z) - Backdoor Attacks for Remote Sensing Data with Wavelet Transform [14.50261153230204]
本稿では,リモートセンシングデータに対するバックドア攻撃の系統的解析を行う。
そこで本研究では, 有害画像にトリガ画像を注入することで, 目に見えない攻撃を可能にする新しいウェーブレット変換ベースアタック(WABA)手法を提案する。
その単純さにもかかわらず、提案手法は攻撃成功率の高い最先端のディープラーニングモデルをかなり騙すことができる。
論文 参考訳(メタデータ) (2022-11-15T10:49:49Z) - Black-Box Attack against GAN-Generated Image Detector with Contrastive
Perturbation [0.4297070083645049]
GAN生成画像検出器に対する新しいブラックボックス攻撃法を提案する。
エンコーダ・デコーダネットワークに基づく反法学モデルのトレーニングには,新たなコントラスト学習戦略が採用されている。
提案した攻撃は、6つの一般的なGAN上での3つの最先端検出器の精度を効果的に低減する。
論文 参考訳(メタデータ) (2022-11-07T12:56:14Z) - Context-Aware Transfer Attacks for Object Detection [51.65308857232767]
本稿では,オブジェクト検出のためのコンテキスト認識攻撃を新たに生成する手法を提案する。
オブジェクトとその相対的な位置と大きさの共起をコンテキスト情報として利用することにより、ターゲットの誤分類攻撃をうまく生成できることを示す。
論文 参考訳(メタデータ) (2021-12-06T18:26:39Z) - Robust and Accurate Object Detection via Adversarial Learning [111.36192453882195]
この研究は、逆の例を探索することで、物体検出器の微調整段階を補強する。
提案手法は,オブジェクト検出ベンチマークにおいて,最先端のEfficientDetsの性能を+1.1mAP向上させる。
論文 参考訳(メタデータ) (2021-03-23T19:45:26Z) - Detection of Adversarial Supports in Few-shot Classifiers Using Feature
Preserving Autoencoders and Self-Similarity [89.26308254637702]
敵対的なサポートセットを強調するための検出戦略を提案する。
我々は,特徴保存型オートエンコーダフィルタリングと,この検出を行うサポートセットの自己相似性の概念を利用する。
提案手法は攻撃非依存であり, 最善の知識まで, 数発分類器の検出を探索する最初の方法である。
論文 参考訳(メタデータ) (2020-12-09T14:13:41Z) - Anomaly Detection-Based Unknown Face Presentation Attack Detection [74.4918294453537]
異常検出に基づくスプーフ攻撃検出は、顔提示攻撃検出の最近の進歩である。
本稿では,異常検出に基づくスプーフ攻撃検出のためのディープラーニングソリューションを提案する。
提案手法はCNNの表現学習能力の恩恵を受け,fPADタスクの優れた特徴を学習する。
論文 参考訳(メタデータ) (2020-07-11T21:20:55Z) - Detection as Regression: Certified Object Detection by Median Smoothing [50.89591634725045]
この研究は、ランダム化平滑化による認定分類の最近の進歩によって動機付けられている。
我々は、$ell$-bounded攻撃に対するオブジェクト検出のための、最初のモデル非依存、トレーニング不要、認定された防御条件を得る。
論文 参考訳(メタデータ) (2020-07-07T18:40:19Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。