論文の概要: Pick-Object-Attack: Type-Specific Adversarial Attack for Object
Detection
- arxiv url: http://arxiv.org/abs/2006.03184v3
- Date: Sun, 22 Aug 2021 02:46:12 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-25 03:08:23.842701
- Title: Pick-Object-Attack: Type-Specific Adversarial Attack for Object
Detection
- Title(参考訳): Pick-Object-Attack: オブジェクト検出のためのタイプ特異的逆攻撃
- Authors: Omid Mohamad Nezami, Akshay Chaturvedi, Mark Dras, Utpal Garain
- Abstract要約: 本稿では,オブジェクト検出の逆例を生成するための,最初のタイプ固有のアプローチを提案する。
Pick-Object-Attackは、ターゲットオブジェクトのバウンディングボックスのみに摂動を追加することに成功した。
画像キャプションを用いて, 対人攻撃が物体検出に与える影響を, 下流タスクの観点から初めて検討した。
- 参考スコア(独自算出の注目度): 9.581332581510184
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Many recent studies have shown that deep neural models are vulnerable to
adversarial samples: images with imperceptible perturbations, for example, can
fool image classifiers. In this paper, we present the first type-specific
approach to generating adversarial examples for object detection, which entails
detecting bounding boxes around multiple objects present in the image and
classifying them at the same time, making it a harder task than against image
classification. We specifically aim to attack the widely used Faster R-CNN by
changing the predicted label for a particular object in an image: where prior
work has targeted one specific object (a stop sign), we generalise to arbitrary
objects, with the key challenge being the need to change the labels of all
bounding boxes for all instances of that object type. To do so, we propose a
novel method, named Pick-Object-Attack. Pick-Object-Attack successfully adds
perturbations only to bounding boxes for the targeted object, preserving the
labels of other detected objects in the image. In terms of perceptibility, the
perturbations induced by the method are very small. Furthermore, for the first
time, we examine the effect of adversarial attacks on object detection in terms
of a downstream task, image captioning; we show that where a method that can
modify all object types leads to very obvious changes in captions, the changes
from our constrained attack are much less apparent.
- Abstract(参考訳): 最近の多くの研究では、深い神経モデルが敵のサンプルに弱いことが示されており、例えば知覚不能な摂動を持つ画像は画像分類器を騙すことができる。
本稿では,画像中に存在する複数の物体のまわりに有界箱を検知し,同時に分類し,画像の分類よりも困難な課題となる物体検出の逆例を生成するための,最初のタイプ固有のアプローチを提案する。
特に、画像内の特定のオブジェクトの予測ラベルを変更することで、広く使われている高速なr-cnnを攻撃することを目的としています。 以前の作業が1つの特定のオブジェクト(ストップサイン)をターゲットにしている場合、私たちは任意のオブジェクトに一般化します。
そこで我々はPick-Object-Attackという新しい手法を提案する。
Pick-Object-Attackは、ターゲットオブジェクトのバウンディングボックスのみに摂動を追加し、イメージ内の他の検出されたオブジェクトのラベルを保存する。
知覚性の観点からは、この方法によって引き起こされる摂動は非常に小さい。
さらに, 下流タスク, 画像キャプションの観点から, 物体検出に対する敵意攻撃の効果を初めて検証し, すべてのオブジェクト型を変更可能なメソッドがキャプションに非常に明らかな変化をもたらす場合, 制約された攻撃による変化は, あまり顕著ではないことを示した。
関連論文リスト
- Improving Object Detection via Local-global Contrastive Learning [27.660633883387753]
本稿では,クロスドメインオブジェクト検出を対象とする画像から画像への変換手法を提案する。
ローカル・グローバル情報と対比することでオブジェクトを表現することを学ぶ。
これにより、ドメインシフトの下で、パフォーマンス検出(Performant detection)の取得という、未調査の課題の調査が可能になる。
論文 参考訳(メタデータ) (2024-10-07T14:18:32Z) - Image Segmentation-based Unsupervised Multiple Objects Discovery [1.7674345486888503]
教師なしオブジェクト発見は、イメージ内のオブジェクトをローカライズすることを目的としている。
我々は,複数のオブジェクトの発見に対して,完全に教師なしのボトムアップアプローチを提案する。
我々は、教師なしクラス非依存オブジェクト検出と教師なしイメージセグメンテーションの両方に対して、最先端の結果を提供する。
論文 参考訳(メタデータ) (2022-12-20T09:48:24Z) - Exploiting Unlabeled Data with Vision and Language Models for Object
Detection [64.94365501586118]
堅牢で汎用的なオブジェクト検出フレームワークを構築するには、より大きなラベルスペースとより大きなトレーニングデータセットへのスケーリングが必要である。
本稿では,近年の視覚と言語モデルで利用可能なリッチなセマンティクスを利用して,未ラベル画像中のオブジェクトのローカライズと分類を行う手法を提案する。
生成した擬似ラベルの価値を,オープン語彙検出と半教師付きオブジェクト検出の2つのタスクで示す。
論文 参考訳(メタデータ) (2022-07-18T21:47:15Z) - Context-Aware Transfer Attacks for Object Detection [51.65308857232767]
本稿では,オブジェクト検出のためのコンテキスト認識攻撃を新たに生成する手法を提案する。
オブジェクトとその相対的な位置と大きさの共起をコンテキスト情報として利用することにより、ターゲットの誤分類攻撃をうまく生成できることを示す。
論文 参考訳(メタデータ) (2021-12-06T18:26:39Z) - Decoupled Adaptation for Cross-Domain Object Detection [69.5852335091519]
クロスドメインオブジェクト検出は、オブジェクト分類よりも難しい。
D-adaptは4つのクロスドメインオブジェクト検出タスクで最先端の結果を達成する。
論文 参考訳(メタデータ) (2021-10-06T08:43:59Z) - A Simple and Effective Use of Object-Centric Images for Long-Tailed
Object Detection [56.82077636126353]
シーン中心画像における物体検出を改善するために,物体中心画像を活用する。
私たちは、シンプルで驚くほど効果的なフレームワークを提示します。
我々の手法は、レアオブジェクトのオブジェクト検出(およびインスタンスセグメンテーション)の精度を相対的に50%(および33%)向上させることができる。
論文 参考訳(メタデータ) (2021-02-17T17:27:21Z) - Synthesizing the Unseen for Zero-shot Object Detection [72.38031440014463]
そこで本研究では,視覚領域における視覚的特徴と視覚的対象の両方を学習するために,視覚的特徴を合成することを提案する。
クラスセマンティックスを用いた新しい生成モデルを用いて特徴を生成するだけでなく,特徴を識別的に分離する。
論文 参考訳(メタデータ) (2020-10-19T12:36:11Z) - Learning Object Detection from Captions via Textual Scene Attributes [70.90708863394902]
キャプションには、オブジェクトの属性やそれらの関係など、画像に関するよりリッチな情報が含まれている、と我々は主張する。
本稿では,この「テキストシーングラフ」の属性を用いて物体検知器を訓練する手法を提案する。
得られたモデルが、いくつかの挑戦的なオブジェクト検出データセットに対して、最先端の結果を達成することを実証的に実証した。
論文 参考訳(メタデータ) (2020-09-30T10:59:20Z) - Cross-Supervised Object Detection [42.783400918552765]
完全ラベル付きベースカテゴリから学習した知識を活用して、新しいカテゴリの弱いラベル付き画像からより良いオブジェクト検出器を構築する方法を示す。
本稿では,インスタンスレベルのアノテーションから学習した検出ヘッドと,画像レベルのアノテーションから学習した認識ヘッドを組み合わせた統合フレームワークを提案する。
論文 参考訳(メタデータ) (2020-06-26T15:33:48Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。