論文の概要: Autoencoder-based Denoising Defense against Adversarial Attacks on Object Detection
- arxiv url: http://arxiv.org/abs/2512.16123v1
- Date: Thu, 18 Dec 2025 03:19:40 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-12-19 18:10:31.894469
- Title: Autoencoder-based Denoising Defense against Adversarial Attacks on Object Detection
- Title(参考訳): オートエンコーダによる物体検出における敵攻撃に対する抑止対策
- Authors: Min Geun Song, Gang Min Kim, Woonmin Kim, Yongsik Kim, Jeonghyun Sim, Sangbeom Park, Huy Kang Kim,
- Abstract要約: 本稿では, 対向的摂動による物体検出性能の回復を目的とした, 自己エンコーダに基づくデノナイジングディフェンスを提案する。
その結果, 自己エンコーダをベースとしたデノベーションは, モデル再訓練を必要とせず, 対人攻撃に対する部分的な防御効果が示唆された。
- 参考スコア(独自算出の注目度): 3.7909416987732243
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Deep learning-based object detection models play a critical role in real-world applications such as autonomous driving and security surveillance systems, yet they remain vulnerable to adversarial examples. In this work, we propose an autoencoder-based denoising defense to recover object detection performance degraded by adversarial perturbations. We conduct adversarial attacks using Perlin noise on vehicle-related images from the COCO dataset, apply a single-layer convolutional autoencoder to remove the perturbations, and evaluate detection performance using YOLOv5. Our experiments demonstrate that adversarial attacks reduce bbox mAP from 0.2890 to 0.1640, representing a 43.3% performance degradation. After applying the proposed autoencoder defense, bbox mAP improves to 0.1700 (3.7% recovery) and bbox mAP@50 increases from 0.2780 to 0.3080 (10.8% improvement). These results indicate that autoencoder-based denoising can provide partial defense against adversarial attacks without requiring model retraining.
- Abstract(参考訳): ディープラーニングに基づくオブジェクト検出モデルは、自律運転やセキュリティ監視システムといった現実世界のアプリケーションにおいて重要な役割を果たすが、敵の例には弱いままである。
本研究では, 対向的摂動による物体検出性能の回復を目的とした, 自己エンコーダに基づくデノナイジングディフェンスを提案する。
我々は,COCOデータセットからの車両関連画像に対するPerlinノイズを用いた対向攻撃を行い,単一層畳み込みオートエンコーダを用いて摂動を除去し,YOLOv5を用いて検出性能を評価する。
実験の結果, 敵攻撃によりbbox mAPが0.2890から0.1640に減少し, 43.3%の性能低下が認められた。
提案された自己エンコーダ防御を適用した後、bbox mAPは0.1700 (3.7%)に改善され、bbox mAP@50は0.2780から0.3080(10.8%)に向上した。
これらの結果から, 自己エンコーダをベースとしたデノナイジングは, モデル再訓練を必要とせず, 敵攻撃に対する部分的な防御効果が示唆された。
関連論文リスト
- Let the Noise Speak: Harnessing Noise for a Unified Defense Against Adversarial and Backdoor Attacks [31.291700348439175]
機械学習に対する悪意のあるデータ操作攻撃は、安全クリティカルなアプリケーションにおける信頼性を損なう。
再建型侵入検知システムであるNoiSecを提案する。
NoiSecは、テスト入力からノイズを取り除き、ノイズから基礎となる特徴を抽出し、それらを活用して、システマティックな悪意のある操作を認識する。
論文 参考訳(メタデータ) (2024-06-18T21:44:51Z) - Enhancing Object Detection Robustness: Detecting and Restoring Confidence in the Presence of Adversarial Patch Attacks [2.963101656293054]
敵パッチに対するYOLOv5モデルの防御機構について検討した。
我々はSegment and Complete (SAC)、Inpainting、Latent Diffusion Modelsを含むいくつかの防衛実験を行った。
その結果, 対向パッチは平均検出信頼度を22.06%低下させることがわかった。
論文 参考訳(メタデータ) (2024-03-04T13:32:48Z) - MalPurifier: Enhancing Android Malware Detection with Adversarial Purification against Evasion Attacks [18.016148305499865]
MalPurifierは、Androidのマルウェア検出用に特別に設計された、新しい対逆浄化フレームワークである。
2つの大規模なデータセットの実験により、MalPurifierは最先端の防御を著しく上回っていることが示された。
MalPurifierは軽量でモデルに依存しないプラグイン・アンド・プレイモジュールとして、MLベースのAndroidマルウェア検出器のセキュリティを強化するための実用的で効果的なソリューションを提供する。
論文 参考訳(メタデータ) (2023-12-11T14:48:43Z) - Ada3Diff: Defending against 3D Adversarial Point Clouds via Adaptive
Diffusion [70.60038549155485]
ディープ3Dポイントクラウドモデルは敵攻撃に敏感であり、自律運転のような安全クリティカルなアプリケーションに脅威をもたらす。
本稿では,適応強度推定器と拡散モデルを用いて,プリスタンデータ分布を再構築できる新しい歪み認識型防衛フレームワークを提案する。
論文 参考訳(メタデータ) (2022-11-29T14:32:43Z) - CARLA-GeAR: a Dataset Generator for a Systematic Evaluation of
Adversarial Robustness of Vision Models [61.68061613161187]
本稿では,合成データセットの自動生成ツールであるCARLA-GeARについて述べる。
このツールは、Python APIを使用して、CARLAシミュレータ上に構築されており、自律運転のコンテキストにおいて、いくつかのビジョンタスク用のデータセットを生成することができる。
本稿では,CARLA-GeARで生成されたデータセットが,現実世界の敵防衛のベンチマークとして今後どのように利用されるかを示す。
論文 参考訳(メタデータ) (2022-06-09T09:17:38Z) - Adversarial Attack and Defense of YOLO Detectors in Autonomous Driving
Scenarios [3.236217153362305]
本稿では,自律走行車における視覚的検出の客観性に着目した効果的な攻撃戦略を提案する。
実験の結果、対象のアスペクトを標的とした攻撃は45.17%と43.50%が、分類や局所化の損失から生じた攻撃よりも効果的であることが示されている。
提案手法は, KITTI と COCO_traffic でそれぞれ最大21% と 12% mAP の目標指向攻撃に対する検出器の堅牢性を向上させることができる。
論文 参考訳(メタデータ) (2022-02-10T00:47:36Z) - ObjectSeeker: Certifiably Robust Object Detection against Patch Hiding
Attacks via Patch-agnostic Masking [95.6347501381882]
物体探知機は物理的世界のパッチ隠蔽攻撃に弱いことが判明した。
我々は,堅牢なオブジェクト検出器を構築するためのフレームワークとしてObjectSeekerを提案する。
論文 参考訳(メタデータ) (2022-02-03T19:34:25Z) - Detection as Regression: Certified Object Detection by Median Smoothing [50.89591634725045]
この研究は、ランダム化平滑化による認定分類の最近の進歩によって動機付けられている。
我々は、$ell$-bounded攻撃に対するオブジェクト検出のための、最初のモデル非依存、トレーニング不要、認定された防御条件を得る。
論文 参考訳(メタデータ) (2020-07-07T18:40:19Z) - Defense for Black-box Attacks on Anti-spoofing Models by Self-Supervised
Learning [71.17774313301753]
本研究では,自己指導型高水準表現の堅牢性について,敵攻撃に対する防御に利用して検討する。
ASVspoof 2019データセットの実験結果は、Mockingjayによって抽出されたハイレベルな表現が、敵の例の転送可能性を妨げることを示した。
論文 参考訳(メタデータ) (2020-06-05T03:03:06Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。