論文の概要: Adversarial Detection: Attacking Object Detection in Real Time
- arxiv url: http://arxiv.org/abs/2209.01962v6
- Date: Tue, 12 Dec 2023 11:27:29 GMT
- ステータス: 処理完了
- システム内更新日: 2023-12-13 21:03:34.185898
- Title: Adversarial Detection: Attacking Object Detection in Real Time
- Title(参考訳): 逆検出:物体検出をリアルタイムで攻撃する
- Authors: Han Wu, Syed Yunas, Sareh Rowlands, Wenjie Ruan, and Johan Wahlstrom
- Abstract要約: 本稿では,オブジェクト検出モデルに対する最初のリアルタイムオンライン攻撃を提案する。
所望の場所で非存在オブジェクトのバウンディングボックスを構成する3つの攻撃を考案する。
この攻撃は、約20回のイテレーションで約90%の成功率を達成する。
- 参考スコア(独自算出の注目度): 10.547024752811437
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Intelligent robots rely on object detection models to perceive the
environment. Following advances in deep learning security it has been revealed
that object detection models are vulnerable to adversarial attacks. However,
prior research primarily focuses on attacking static images or offline videos.
Therefore, it is still unclear if such attacks could jeopardize real-world
robotic applications in dynamic environments. This paper bridges this gap by
presenting the first real-time online attack against object detection models.
We devise three attacks that fabricate bounding boxes for nonexistent objects
at desired locations. The attacks achieve a success rate of about 90% within
about 20 iterations. The demo video is available at
https://youtu.be/zJZ1aNlXsMU.
- Abstract(参考訳): 知的ロボットは環境を認識するために物体検出モデルに依存している。
ディープラーニングのセキュリティの進歩に続いて、オブジェクト検出モデルは敵の攻撃に対して脆弱であることが判明した。
しかし、以前の研究は主に静的画像やオフラインビデオの攻撃に焦点を当てていた。
したがって、そのような攻撃が動的環境における現実世界のロボットアプリケーションを破壊するかどうかはまだ不明である。
本稿では,オブジェクト検出モデルに対する最初のリアルタイムオンライン攻撃を提案することで,このギャップを埋める。
所望の場所で非存在オブジェクトのバウンディングボックスを構成する3つの攻撃を考案する。
この攻撃は、約20回のイテレーションで約90%の成功率を達成する。
デモビデオはhttps://youtu.be/zjz1anlxsmuで見ることができる。
関連論文リスト
- Mask-based Invisible Backdoor Attacks on Object Detection [0.0]
ディープラーニングモデルは、バックドア攻撃に弱い。
本研究では,マスクベースのアプローチを用いて,物体検出に対する効果的な視覚的バックドア攻撃を提案する。
論文 参考訳(メタデータ) (2024-03-20T12:27:30Z) - Patch of Invisibility: Naturalistic Physical Black-Box Adversarial Attacks on Object Detectors [0.0]
対象検出器に対する自然主義的物理逆パッチを生成するために, 直接的, ブラックボックス, グラデーションフリーな手法を提案する。
我々の知る限り、これはオブジェクト検出モデルに直接ブラックボックス物理攻撃を実行する最初の、かつ唯一の方法である。
論文 参考訳(メタデータ) (2023-03-07T21:03:48Z) - Object-fabrication Targeted Attack for Object Detection [54.10697546734503]
物体検出の敵攻撃は 標的攻撃と未標的攻撃を含む。
新たなオブジェクトファブリケーションターゲット攻撃モードは、特定のターゲットラベルを持つ追加の偽オブジェクトをファブリケートする検出器を誤解させる可能性がある。
論文 参考訳(メタデータ) (2022-12-13T08:42:39Z) - Untargeted Backdoor Attack against Object Detection [69.63097724439886]
我々は,タスク特性に基づいて,無目標で毒のみのバックドア攻撃を設計する。
攻撃によって、バックドアがターゲットモデルに埋め込まれると、トリガーパターンでスタンプされたオブジェクトの検出を失う可能性があることを示す。
論文 参考訳(メタデータ) (2022-11-02T17:05:45Z) - Just Rotate it: Deploying Backdoor Attacks via Rotation Transformation [48.238349062995916]
回転に基づく画像変換により,高い効率のバックドアを容易に挿入できることが判明した。
私たちの研究は、バックドア攻撃のための、新しく、シンプルで、物理的に実現可能で、非常に効果的なベクターに焦点を当てています。
論文 参考訳(メタデータ) (2022-07-22T00:21:18Z) - Illusory Attacks: Information-Theoretic Detectability Matters in Adversarial Attacks [76.35478518372692]
エプシロン・イリューソリー(epsilon-illusory)は、シーケンシャルな意思決定者に対する敵対的攻撃の新たな形態である。
既存の攻撃と比較して,エプシロン・イリューソリーの自動検出は極めて困難である。
以上の結果から, より優れた異常検知器, 効果的なハードウェアおよびシステムレベルの防御の必要性が示唆された。
論文 参考訳(メタデータ) (2022-07-20T19:49:09Z) - BadDet: Backdoor Attacks on Object Detection [42.40418007499009]
対象物検出のための4種類のバックドア攻撃を提案する。
トリガーは、ターゲットクラスのオブジェクトを誤って生成することができる。
単一のトリガーは、イメージ内のすべてのオブジェクトの予測をターゲットクラスに変更することができる。
論文 参考訳(メタデータ) (2022-05-28T18:02:11Z) - Zero-Query Transfer Attacks on Context-Aware Object Detectors [95.18656036716972]
敵は、ディープニューラルネットワークが誤った分類結果を生成するような摂動画像を攻撃する。
自然の多目的シーンに対する敵対的攻撃を防御するための有望なアプローチは、文脈整合性チェックを課すことである。
本稿では,コンテキスト整合性チェックを回避可能な,コンテキスト整合性攻撃を生成するための最初のアプローチを提案する。
論文 参考訳(メタデータ) (2022-03-29T04:33:06Z) - Dangerous Cloaking: Natural Trigger based Backdoor Attacks on Object
Detectors in the Physical World [20.385028861767218]
この研究は、既存の物体検出器が物理的バックドア攻撃の影響を受けやすいことを実証している。
このようなバックドアを2つの悪用可能な攻撃シナリオからオブジェクト検出器に埋め込むことができることを示す。
我々は, アンカーベースYolo-V3, Yolo-V4, アンカーフリーCenterNetの3つの人気物体検出アルゴリズムを評価する。
論文 参考訳(メタデータ) (2022-01-21T10:11:27Z) - Dynamic Adversarial Patch for Evading Object Detection Models [47.32228513808444]
本研究では,実環境に適用したオブジェクト検出器に対する革新的な攻撃手法を提案する。
本手法では,対象物体上の複数の所定位置に配置される動的対向パッチを用いる。
対象オブジェクトと分類のセマンティック距離を考慮したパッチを生成することで攻撃を改善した。
論文 参考訳(メタデータ) (2020-10-25T08:55:40Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。