論文の概要: Untargeted Backdoor Attack against Object Detection
- arxiv url: http://arxiv.org/abs/2211.05638v1
- Date: Wed, 2 Nov 2022 17:05:45 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-13 23:21:04.256864
- Title: Untargeted Backdoor Attack against Object Detection
- Title(参考訳): 物体検出に対する非標的バックドア攻撃
- Authors: Chengxiao Luo, Yiming Li, Yong Jiang, Shu-Tao Xia
- Abstract要約: 我々は,タスク特性に基づいて,無目標で毒のみのバックドア攻撃を設計する。
攻撃によって、バックドアがターゲットモデルに埋め込まれると、トリガーパターンでスタンプされたオブジェクトの検出を失う可能性があることを示す。
- 参考スコア(独自算出の注目度): 69.63097724439886
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Recent studies revealed that deep neural networks (DNNs) are exposed to
backdoor threats when training with third-party resources (such as training
samples or backbones). The backdoored model has promising performance in
predicting benign samples, whereas its predictions can be maliciously
manipulated by adversaries based on activating its backdoors with pre-defined
trigger patterns. Currently, most of the existing backdoor attacks were
conducted on the image classification under the targeted manner. In this paper,
we reveal that these threats could also happen in object detection, posing
threatening risks to many mission-critical applications ($e.g.$, pedestrian
detection and intelligent surveillance systems). Specifically, we design a
simple yet effective poison-only backdoor attack in an untargeted manner, based
on task characteristics. We show that, once the backdoor is embedded into the
target model by our attack, it can trick the model to lose detection of any
object stamped with our trigger patterns. We conduct extensive experiments on
the benchmark dataset, showing its effectiveness in both digital and
physical-world settings and its resistance to potential defenses.
- Abstract(参考訳): 最近の研究では、ディープニューラルネットワーク(dnn)が、サードパーティリソース(トレーニングサンプルやバックボーンなど)とのトレーニング時にバックドアの脅威にさらされていることが示されている。
バックドアモデルは良質なサンプルを予測するのに有望な性能を持つが、その予測は事前に定義されたトリガーパターンでバックドアを活性化することで敵によって悪質に操作できる。
現在、既存のバックドア攻撃のほとんどは、ターゲット方式で画像分類を行ったものである。
この論文では、これらの脅威は物体検出にも起こり得ることを明らかにし、多くのミッションクリティカルなアプリケーション(例えば、歩行者検出やインテリジェント監視システム)にリスクをもたらす。
具体的には、タスク特性に基づいて、単純だが効果的な毒のみのバックドア攻撃を標的に設計する。
攻撃によってバックドアがターゲットモデルに組み込まれると、トリガーパターンで押された任意のオブジェクトの検出を失うようにモデルを騙すことができます。
我々は,デジタルおよび物理世界の両方の設定において,その有効性と潜在的な防御に対する抵抗性を示すため,ベンチマークデータセット上で広範囲な実験を行った。
関連論文リスト
- Attacking by Aligning: Clean-Label Backdoor Attacks on Object Detection [24.271795745084123]
ディープニューラルネットワーク(DNN)は、オブジェクト検出タスクにおいて前例のない成功を収めている。
対象物検出タスクに対するバックドア攻撃は、適切に調査され、調査されていない。
そこで本研究では,オブジェクト検出に対して,接地真理アノテーションを変更することなく,簡易かつ効果的なバックドア攻撃手法を提案する。
論文 参考訳(メタデータ) (2023-07-19T22:46:35Z) - Backdoor Attack with Sparse and Invisible Trigger [57.41876708712008]
ディープニューラルネットワーク(DNN)は、バックドア攻撃に対して脆弱である。
バックドアアタックは、訓練段階の脅威を脅かしている。
軽度で目に見えないバックドアアタック(SIBA)を提案する。
論文 参考訳(メタデータ) (2023-05-11T10:05:57Z) - Backdoor Defense via Deconfounded Representation Learning [17.28760299048368]
我々は、信頼性の高い分類のための非定型表現を学ぶために、因果性に着想を得たバックドアディフェンス(CBD)を提案する。
CBDは、良性サンプルの予測において高い精度を維持しながら、バックドアの脅威を減らすのに有効である。
論文 参考訳(メタデータ) (2023-03-13T02:25:59Z) - SATBA: An Invisible Backdoor Attack Based On Spatial Attention [7.405457329942725]
バックドア攻撃には、隠れたトリガーパターンを含むデータセットに対するDeep Neural Network(DNN)のトレーニングが含まれる。
既存のバックドア攻撃のほとんどは、2つの重大な欠点に悩まされている。
空間的注意とU-netモデルを用いてこれらの制限を克服するSATBAという新しいバックドアアタックを提案する。
論文 参考訳(メタデータ) (2023-02-25T10:57:41Z) - BATT: Backdoor Attack with Transformation-based Triggers [72.61840273364311]
ディープニューラルネットワーク(DNN)は、バックドア攻撃に対して脆弱である。
バックドアの敵は、敵が特定したトリガーパターンによって活性化される隠れたバックドアを注入する。
最近の研究によると、既存の攻撃のほとんどは現実世界で失敗した。
論文 参考訳(メタデータ) (2022-11-02T16:03:43Z) - BadDet: Backdoor Attacks on Object Detection [42.40418007499009]
対象物検出のための4種類のバックドア攻撃を提案する。
トリガーは、ターゲットクラスのオブジェクトを誤って生成することができる。
単一のトリガーは、イメージ内のすべてのオブジェクトの予測をターゲットクラスに変更することができる。
論文 参考訳(メタデータ) (2022-05-28T18:02:11Z) - On the Effectiveness of Adversarial Training against Backdoor Attacks [111.8963365326168]
バックドアモデルは、事前に定義されたトリガーパターンが存在する場合、常にターゲットクラスを予測する。
一般的には、敵の訓練はバックドア攻撃に対する防御であると信じられている。
本稿では,様々なバックドア攻撃に対して良好な堅牢性を提供するハイブリッド戦略を提案する。
論文 参考訳(メタデータ) (2022-02-22T02:24:46Z) - Black-box Detection of Backdoor Attacks with Limited Information and
Data [56.0735480850555]
モデルへのクエリアクセスのみを用いてバックドア攻撃を同定するブラックボックスバックドア検出(B3D)手法を提案する。
バックドア検出に加えて,同定されたバックドアモデルを用いた信頼性の高い予測手法を提案する。
論文 参考訳(メタデータ) (2021-03-24T12:06:40Z) - Backdoor Learning: A Survey [75.59571756777342]
バックドア攻撃はディープニューラルネットワーク(DNN)に隠れたバックドアを埋め込む
バックドア学習は、急速に成長する研究分野である。
本稿では,この領域を包括的に調査する。
論文 参考訳(メタデータ) (2020-07-17T04:09:20Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。