論文の概要: Denial-of-Service Attack on Object Detection Model Using Universal
Adversarial Perturbation
- arxiv url: http://arxiv.org/abs/2205.13618v1
- Date: Thu, 26 May 2022 20:46:28 GMT
- ステータス: 処理完了
- システム内更新日: 2022-05-30 14:03:22.100572
- Title: Denial-of-Service Attack on Object Detection Model Using Universal
Adversarial Perturbation
- Title(参考訳): universal adversarial perturbation を用いた物体検出モデルに対するサービス拒否攻撃
- Authors: Avishag Shapira, Alon Zolfi, Luca Demetrio, Battista Biggio, Asaf
Shabtai
- Abstract要約: NMS-Spongeは、最先端のオブジェクト検出器であるYOLOの決定遅延に悪影響を及ぼす新しいアプローチである。
提案するUAPは,「ファントム」オブジェクトを追加することで,個々のフレームの処理時間を向上できることを示す。
- 参考スコア(独自算出の注目度): 26.77892878217983
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Adversarial attacks against deep learning-based object detectors have been
studied extensively in the past few years. The proposed attacks aimed solely at
compromising the models' integrity (i.e., trustworthiness of the model's
prediction), while adversarial attacks targeting the models' availability, a
critical aspect in safety-critical domains such as autonomous driving, have not
been explored by the machine learning research community. In this paper, we
propose NMS-Sponge, a novel approach that negatively affects the decision
latency of YOLO, a state-of-the-art object detector, and compromises the
model's availability by applying a universal adversarial perturbation (UAP). In
our experiments, we demonstrate that the proposed UAP is able to increase the
processing time of individual frames by adding "phantom" objects while
preserving the detection of the original objects.
- Abstract(参考訳): 深層学習に基づく物体検出器に対する敵意攻撃は、ここ数年にわたって広く研究されてきた。
モデルの完全性(すなわち、モデルの予測の信頼性)を妥協することだけを目的として提案された攻撃は、モデルの可用性を標的とした敵対的な攻撃であり、自動運転のような安全クリティカルな領域において重要な側面である。
本稿では,最先端のオブジェクト検出器であるYOLOの決定遅延に悪影響を及ぼす新しいアプローチであるNMS-Spongeを提案し,UAP(Universal Adversarial Perturbation)を適用してモデルの有効性を損なう。
実験では,提案するUAPにより,原対象の検出を保ちながら「幻」オブジェクトを追加することにより,個々のフレームの処理時間を向上できることを示した。
関連論文リスト
- On the Inherent Robustness of One-Stage Object Detection against Out-of-Distribution Data [6.7236795813629]
画像データ中の未知物体を検出する新しい検出アルゴリズムを提案する。
モデルによって抽出された特徴に対する次元の呪いの影響を軽減するために、教師付き次元削減技術を利用する。
これは高解像度の特徴マップを用いて、教師なしの方法で潜在的に未知の物体を識別する。
論文 参考訳(メタデータ) (2024-11-07T10:15:25Z) - Transferable Adversarial Attacks on SAM and Its Downstream Models [87.23908485521439]
本稿では,セグメント・アプライス・モデル(SAM)から微調整した様々な下流モデルに対する敵攻撃の可能性について検討する。
未知のデータセットを微調整したモデルに対する敵攻撃の有効性を高めるために,ユニバーサルメタ初期化(UMI)アルゴリズムを提案する。
論文 参考訳(メタデータ) (2024-10-26T15:04:04Z) - MirrorCheck: Efficient Adversarial Defense for Vision-Language Models [55.73581212134293]
本稿では,視覚言語モデルにおける対角的サンプル検出のための,新しい,しかしエレガントなアプローチを提案する。
本手法は,テキスト・トゥ・イメージ(T2I)モデルを用いて,ターゲットVLMが生成したキャプションに基づいて画像を生成する。
異なるデータセットで実施した経験的評価により,本手法の有効性が検証された。
論文 参考訳(メタデータ) (2024-06-13T15:55:04Z) - MEAOD: Model Extraction Attack against Object Detectors [45.817537875368956]
モデル抽出攻撃は、攻撃者が被害者モデルに匹敵する機能を持つ代替モデルを複製することを可能にする。
本稿では,オブジェクト検出モデルに対するMEAODと呼ばれる効果的な攻撃手法を提案する。
10kのクエリ予算の所定の条件下で,抽出性能を70%以上達成する。
論文 参考訳(メタデータ) (2023-12-22T13:28:50Z) - Incremental Object-Based Novelty Detection with Feedback Loop [18.453867533201308]
オブジェクトベースのノベルティ検出(ND)は、トレーニング中に見られるクラスに属さない未知のオブジェクトを特定することを目的としている。
従来のNDアプローチでは、事前訓練されたオブジェクト検出出力の1回のオフラインポスト処理に重点を置いていた。
本研究では,予測された出力に対して人間のフィードバックを要求できることを前提として,オブジェクトベースのNDのための新しいフレームワークを提案する。
論文 参考訳(メタデータ) (2023-11-15T14:46:20Z) - SAM Meets UAP: Attacking Segment Anything Model With Universal Adversarial Perturbation [61.732503554088524]
画像認識不能なユニバーサル適応摂動(UAP)を用いてSAM(Segment Anything Model)を攻撃できるかどうかを検討する。
自己教師付きコントラスト学習(CL)に基づくUAP生成手法を実現する新しい摂動中心フレームワークを提案する。
CLを用いたUAP生成手法の有効性を定量的および定性的に検証した。
論文 参考訳(メタデータ) (2023-10-19T02:49:24Z) - The Adversarial Implications of Variable-Time Inference [47.44631666803983]
本稿では,攻撃対象のMLモデルの予測を後処理するアルゴリズムの実行時間を簡単に計測する,新たなサイドチャネルを利用するアプローチを提案する。
我々は,物体検出装置の動作において重要な役割を果たす非最大抑圧(NMS)アルゴリズムからの漏れを調査する。
我々は、YOLOv3検出器に対する攻撃を実演し、タイミングリークを利用して、逆例を用いてオブジェクト検出を回避し、データセット推論を行う。
論文 参考訳(メタデータ) (2023-09-05T11:53:17Z) - Object-fabrication Targeted Attack for Object Detection [54.10697546734503]
物体検出の敵攻撃は 標的攻撃と未標的攻撃を含む。
新たなオブジェクトファブリケーションターゲット攻撃モードは、特定のターゲットラベルを持つ追加の偽オブジェクトをファブリケートする検出器を誤解させる可能性がある。
論文 参考訳(メタデータ) (2022-12-13T08:42:39Z) - Adversarial Vulnerability of Temporal Feature Networks for Object
Detection [5.525433572437716]
本研究では,物体検出のための時間的特徴ネットワークが,普遍的敵攻撃に対して脆弱であるかどうかを検討する。
画像全体に対する知覚不能ノイズと,局所的な対向パッチの2種類の攻撃について検討した。
KITTIおよびnuScenesデータセットに関する実験により、K-PGDによるロバスト化モデルが、研究された攻撃に耐えられることを示した。
論文 参考訳(メタデータ) (2022-08-23T07:08:54Z) - Understanding Object Detection Through An Adversarial Lens [14.976840260248913]
本稿では, 対向レンズ下での深部物体検出装置の脆弱性を分析し評価するための枠組みを提案する。
提案手法は, リアルタイムオブジェクト検出システムにおいて, 対向行動やリスクを解析するための方法論的ベンチマークとして機能することが実証された。
我々は、このフレームワークが、現実世界のアプリケーションにデプロイされるディープオブジェクト検出器のセキュリティリスクと敵の堅牢性を評価するツールとしても役立つと推測する。
論文 参考訳(メタデータ) (2020-07-11T18:41:47Z) - Defense for Black-box Attacks on Anti-spoofing Models by Self-Supervised
Learning [71.17774313301753]
本研究では,自己指導型高水準表現の堅牢性について,敵攻撃に対する防御に利用して検討する。
ASVspoof 2019データセットの実験結果は、Mockingjayによって抽出されたハイレベルな表現が、敵の例の転送可能性を妨げることを示した。
論文 参考訳(メタデータ) (2020-06-05T03:03:06Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。