論文の概要: Adversarial YOLO: Defense Human Detection Patch Attacks via Detecting
Adversarial Patches
- arxiv url: http://arxiv.org/abs/2103.08860v1
- Date: Tue, 16 Mar 2021 05:41:39 GMT
- ステータス: 処理完了
- システム内更新日: 2021-03-17 13:29:31.640266
- Title: Adversarial YOLO: Defense Human Detection Patch Attacks via Detecting
Adversarial Patches
- Title(参考訳): Adversarial YOLO: 対向パッチ検出による人的検出パッチ攻撃の防御
- Authors: Nan Ji, YanFei Feng, Haidong Xie, Xueshuang Xiang and Naijin Liu
- Abstract要約: Ad-YOLO と呼ばれる YOLO 検出システム上で、効率的なプラグイン防御コンポーネントを提案します。
Ad-YOLOは、関心のあるオブジェクトと敵対的なパッチの両方を直接検出することが期待されます。
Pascal VOC、Inria、Inria-Patchデータセットを組み合わせてAd-YOLOをトレーニングします。
- 参考スコア(独自算出の注目度): 2.047424180164312
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The security of object detection systems has attracted increasing attention,
especially when facing adversarial patch attacks. Since patch attacks change
the pixels in a restricted area on objects, they are easy to implement in the
physical world, especially for attacking human detection systems. The existing
defenses against patch attacks are mostly applied for image classification
problems and have difficulty resisting human detection attacks. Towards this
critical issue, we propose an efficient and effective plug-in defense component
on the YOLO detection system, which we name Ad-YOLO. The main idea is to add a
patch class on the YOLO architecture, which has a negligible inference
increment. Thus, Ad-YOLO is expected to directly detect both the objects of
interest and adversarial patches. To the best of our knowledge, our approach is
the first defense strategy against human detection attacks.
We investigate Ad-YOLO's performance on the YOLOv2 baseline. To improve the
ability of Ad-YOLO to detect variety patches, we first use an adversarial
training process to develop a patch dataset based on the Inria dataset, which
we name Inria-Patch. Then, we train Ad-YOLO by a combination of Pascal VOC,
Inria, and Inria-Patch datasets. With a slight drop of $0.70\%$ mAP on VOC 2007
test set, Ad-YOLO achieves $80.31\%$ AP of persons, which highly outperforms
$33.93\%$ AP for YOLOv2 when facing white-box patch attacks. Furthermore,
compared with YOLOv2, the results facing a physical-world attack are also
included to demonstrate Ad-YOLO's excellent generalization ability.
- Abstract(参考訳): 対象検出システムのセキュリティは、特に対向するパッチ攻撃に対して、注目を集めている。
パッチ攻撃はオブジェクト上の制限領域のピクセルを変更するため、物理的世界では、特に人間の検出システムを攻撃するために、容易に実装できる。
パッチ攻撃に対する既存の防御は、主に画像分類問題に適用され、人間の検出攻撃に対する抵抗が困難である。
本稿では,この重要な問題に対して,Ad-YOLO と呼ばれる YOLO 検出システム上で,効率的かつ効果的なプラグイン防御コンポーネントを提案する。
主なアイデアは、無視できる推論インクリメントを持つyoloアーキテクチャにパッチクラスを追加することだ。
したがって、Ad-YOLOは興味のある対象と敵のパッチの両方を直接検出することが期待される。
我々の知る限り、我々のアプローチは人間の検出攻撃に対する最初の防衛戦略である。
YOLOv2ベースラインにおけるAd-YOLOの性能について検討する。
ad-yoloのバラエティパッチ検出能力を向上させるために,まず,inria-patchと命名するinriaデータセットに基づくパッチデータセットを開発するために,敵のトレーニングプロセスを使用する。
次に、Pascal VOC、Inria、Inria-Patchデータセットを組み合わせてAd-YOLOをトレーニングする。
ad-yolo は voc 2007 テストセットで 0.70\%$ のマップを少し下げて 80.31\%$ ap を達成し、ホワイトボックスのパッチ攻撃に対して yolov2 の 3.93\%$ ap を大きく上回っている。
さらに、YOLOv2と比較して、物理世界攻撃に直面する結果も、Ad-YOLOの優れた一般化能力を示すために含まれている。
関連論文リスト
- YOLOv10 to Its Genesis: A Decadal and Comprehensive Review of The You Only Look Once (YOLO) Series [6.751138557596013]
本研究は, YOLOv10からYOLOv9, YOLOv8, その後のバージョンに至るまで, YOLOアルゴリズムが導入した進歩について検討する。
この研究は、自動車安全、医療、工業製造、監視、農業の5つの重要な分野におけるYOLOの変革的な影響を強調している。
論文 参考訳(メタデータ) (2024-06-12T06:41:23Z) - YOLOv10: Real-Time End-to-End Object Detection [68.28699631793967]
リアルタイムオブジェクト検出の分野では,YOLOが主流のパラダイムとして浮上している。
非最大抑圧(NMS)による処理後ハマーによるYOLOのエンドツーエンドデプロイメントへの依存。
YOLOの総合的効率-精度駆動型モデル設計戦略を紹介する。
論文 参考訳(メタデータ) (2024-05-23T11:44:29Z) - YOLO-World: Real-Time Open-Vocabulary Object Detection [87.08732047660058]
オープン語彙検出機能でYOLOを強化する革新的なアプローチであるYOLO-Worldを紹介する。
提案手法は,ゼロショット方式で広範囲の物体を高効率で検出する。
YOLO-WorldはV100上で52.0 FPSの35.4 APを達成した。
論文 参考訳(メタデータ) (2024-01-30T18:59:38Z) - YOLO-MS: Rethinking Multi-Scale Representation Learning for Real-time
Object Detection [80.11152626362109]
YOLO-MSと呼ばれる効率的かつ高性能な物体検出器を提供する。
私たちは、他の大規模なデータセットに頼ることなく、MS COCOデータセット上でYOLO-MSをスクラッチからトレーニングします。
私たちの仕事は、他のYOLOモデルのプラグイン・アンド・プレイ・モジュールとしても使えます。
論文 参考訳(メタデータ) (2023-08-10T10:12:27Z) - Adversarial Attack On Yolov5 For Traffic And Road Sign Detection [0.0]
本稿では, YOLOv5 Object Detectionアルゴリズムに対して, 一般的な敵攻撃を実装し, 検討する。
その結果, YOLOv5はこれらの攻撃の影響を受けやすく, 摂動の規模が大きくなるにつれて誤分類率が増加することがわかった。
本研究は,交通・交通システムにおける物体検出アルゴリズムの安全性と信頼性に重要な意味を持つ。
論文 参考訳(メタデータ) (2023-05-27T12:45:32Z) - Object-fabrication Targeted Attack for Object Detection [54.10697546734503]
物体検出の敵攻撃は 標的攻撃と未標的攻撃を含む。
新たなオブジェクトファブリケーションターゲット攻撃モードは、特定のターゲットラベルを持つ追加の偽オブジェクトをファブリケートする検出器を誤解させる可能性がある。
論文 参考訳(メタデータ) (2022-12-13T08:42:39Z) - Segment and Complete: Defending Object Detectors against Adversarial
Patch Attacks with Robust Patch Detection [142.24869736769432]
敵のパッチ攻撃は最先端の物体検出器に深刻な脅威をもたらす。
パッチ攻撃に対して物体検出器を防御するフレームワークであるSegment and Complete Defense (SAC)を提案する。
SACは、物理的パッチ攻撃の標的攻撃成功率を著しく低減できることを示す。
論文 参考訳(メタデータ) (2021-12-08T19:18:48Z) - We Can Always Catch You: Detecting Adversarial Patched Objects WITH or
WITHOUT Signature [3.5272597442284104]
本稿では,オブジェクト検出に対する逆パッチ攻撃の検知問題について検討する。
高速シグネチャベース防御法を提案し,有効であることが実証された。
新たに生成された敵パッチは、提案されたシグネチャベースの防御を回避できる。
本稿では,内部コンテンツセマンティクスの整合性に基づく署名に依存しない新しい検出手法を提案する。
論文 参考訳(メタデータ) (2021-06-09T17:58:08Z) - RPATTACK: Refined Patch Attack on General Object Detectors [31.28929190510979]
汎用物体検出器を攻撃する新しいパッチベースの手法を提案する。
私たちの RPAttack は、Yolo v4 と Faster R-CNN の両方で、驚異的なミス検出率 100% を達成できます。
論文 参考訳(メタデータ) (2021-03-23T11:45:41Z) - DPAttack: Diffused Patch Attacks against Universal Object Detection [66.026630370248]
対象検出に対する敵対攻撃は、全画素攻撃とパッチ攻撃の2つのカテゴリに分けられる。
小惑星や格子状形状の拡散パッチを用いて物体検出装置を騙すための拡散パッチ攻撃(textbfDPAttack)を提案する。
実験の結果、我々のDPAttackは拡散パッチでほとんどの物体検出器を騙すことに成功した。
論文 参考訳(メタデータ) (2020-10-16T04:48:24Z) - Poly-YOLO: higher speed, more precise detection and instance
segmentation for YOLOv3 [2.0103493159384276]
より優れたパフォーマンスと,Poly-YOLOと呼ばれるインスタンスセグメンテーションによって拡張されたYOLOの新バージョンを提案する。
Poly-YOLOはYOLOv3の元々の考え方に基づいており、大量のリライトラベルとアンカーの非効率分布という2つの弱点を取り除いている。
論文 参考訳(メタデータ) (2020-05-27T08:53:35Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。