論文の概要: Deep adversarial attack on target detection systems
- arxiv url: http://arxiv.org/abs/2108.05948v1
- Date: Thu, 12 Aug 2021 20:00:55 GMT
- ステータス: 処理完了
- システム内更新日: 2021-08-16 21:51:28.504777
- Title: Deep adversarial attack on target detection systems
- Title(参考訳): ターゲット検出システムに対する深い敵対攻撃
- Authors: Uche M. Osahor and Nasser M. Nasrabadi
- Abstract要約: 対象領域に小さな摂動を加えて逆赤外画像を生成する方法を示す。
本研究では,視覚的に知覚不能な対赤外画像の開発において,そのターゲットを専門家が視覚的に認識できるような大きな進歩を示す。
- 参考スコア(独自算出の注目度): 21.56208997475512
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Target detection systems identify targets by localizing their coordinates on
the input image of interest. This is ideally achieved by labeling each pixel in
an image as a background or a potential target pixel. Deep Convolutional Neural
Network (DCNN) classifiers have proven to be successful tools for computer
vision applications. However,prior research confirms that even state of the art
classifier models are susceptible to adversarial attacks. In this paper, we
show how to generate adversarial infrared images by adding small perturbations
to the targets region to deceive a DCNN-based target detector at remarkable
levels. We demonstrate significant progress in developing visually
imperceptible adversarial infrared images where the targets are visually
recognizable by an expert but a DCNN-based target detector cannot detect the
targets in the image.
- Abstract(参考訳): ターゲット検出システムは、興味のある入力画像に座標をローカライズすることでターゲットを識別する。
これは、画像中の各ピクセルを背景または潜在的ターゲット画素としてラベル付けすることで理想的に達成される。
deep convolutional neural network (dcnn) 分類器はコンピュータビジョンアプリケーションで成功したツールであることが証明されている。
しかし、先行研究により、美術分類器のモデルでさえ敵対的な攻撃を受けやすいことが確認された。
本稿では,ターゲット領域に小さな摂動を加え,dcnnベースのターゲット検出器を目立ったレベルで欺くことで,逆赤外線画像を生成する方法を示す。
我々は、専門家が目標を視覚的に認識できるが、DCNNベースの目標検出器では画像中のターゲットを検出できない、視覚的に認識不能な対赤外画像の開発において、大きな進歩を示す。
関連論文リスト
- Any Target Can be Offense: Adversarial Example Generation via Generalized Latent Infection [83.72430401516674]
GAKerは任意のターゲットクラスに対して逆例を構築することができる。
本手法は,未知のクラスに対する攻撃成功率を約14.13%で達成する。
論文 参考訳(メタデータ) (2024-07-17T03:24:09Z) - Exploring Geometry of Blind Spots in Vision Models [56.47644447201878]
CNNやトランスフォーマーのような視覚モデルにおける過敏性の現象について検討する。
本稿では,入力空間に対する信頼度の高い領域を反復的に探索するレベルセットトラバースアルゴリズムを提案する。
モデルが高い信頼度を維持するこれらの連結高次元領域の範囲を推定する。
論文 参考訳(メタデータ) (2023-10-30T18:00:33Z) - Detection of Adversarial Physical Attacks in Time-Series Image Data [12.923271427789267]
本稿では,VGと多数投票法を併用したVG(VisionGuard*)を提案する。
これは、意思決定のためにオンボードセンサーを使用して画像が時間とともに収集される自律システムアプリケーションによって動機付けられている。
我々は、最先端のロバストな物理的攻撃によって生成された、クリーンかつ物理的に攻撃された交通標識のビデオ上で、VG*を評価した。
論文 参考訳(メタデータ) (2023-04-27T02:08:13Z) - Mapping Degeneration Meets Label Evolution: Learning Infrared Small Target Detection with Single Point Supervision [32.27190522495652]
我々は、赤外小目標検出をポイントレベルの監視で実現するための最初の試みを行っている。
本稿では,ラベルを段階的に拡張するために,単一点監視(LESPS)を用いたラベル進化というラベル進化フレームワークを提案する。
本手法の有効性を検証するため,洞察力のある可視化実験を行った。
論文 参考訳(メタデータ) (2023-04-04T02:55:57Z) - Adversarially-Aware Robust Object Detector [85.10894272034135]
本稿では,ロバスト検出器 (RobustDet) を提案する。
本モデルは, クリーン画像の検出能力を維持しながら, 傾きを効果的に解き, 検出堅牢性を著しく向上させる。
論文 参考訳(メタデータ) (2022-07-13T13:59:59Z) - Context-Aware Transfer Attacks for Object Detection [51.65308857232767]
本稿では,オブジェクト検出のためのコンテキスト認識攻撃を新たに生成する手法を提案する。
オブジェクトとその相対的な位置と大きさの共起をコンテキスト情報として利用することにより、ターゲットの誤分類攻撃をうまく生成できることを示す。
論文 参考訳(メタデータ) (2021-12-06T18:26:39Z) - Infrared Small-Dim Target Detection with Transformer under Complex
Backgrounds [155.388487263872]
変換器を用いた赤外線小径目標検出手法を提案する。
画像特徴の相互作用情報をより広い範囲で学習するために,変換器の自己認識機構を採用する。
最小限のターゲットの機能を学習するための機能拡張モジュールも設計しています。
論文 参考訳(メタデータ) (2021-09-29T12:23:41Z) - Dense Nested Attention Network for Infrared Small Target Detection [36.654692765557726]
単一フレーム赤外線小ターゲット(SIRST)検出は、小さなターゲットを乱雑な背景から分離することを目的としている。
既存のCNNベースのメソッドは、赤外線小ターゲットに対して直接適用することはできない。
本稿では,高密度ネステッドアテンションネットワーク(DNANet)を提案する。
論文 参考訳(メタデータ) (2021-06-01T13:45:35Z) - Ventral-Dorsal Neural Networks: Object Detection via Selective Attention [51.79577908317031]
我々はVDNet(Ventral-Dorsal Networks)と呼ばれる新しいフレームワークを提案する。
人間の視覚システムの構造にインスパイアされた我々は「Ventral Network」と「Dorsal Network」の統合を提案する。
実験の結果,提案手法は最先端の物体検出手法よりも優れていることがわかった。
論文 参考訳(メタデータ) (2020-05-15T23:57:36Z) - TOG: Targeted Adversarial Objectness Gradient Attacks on Real-time
Object Detection Systems [14.976840260248913]
本稿では,3つの対象対向対象度勾配攻撃により,オブジェクトの消滅,オブジェクトのファブリケーション,オブジェクトのミスラベリングが生じることを示す。
また,ブラックボックス攻撃に対して,対向移動性を利用する汎用的オブジェクト指向勾配攻撃を提案する。
その結果、深刻な敵の脆弱性が示され、堅牢な物体検出システムを開発するための説得力のある必要性が示された。
論文 参考訳(メタデータ) (2020-04-09T01:36:23Z) - Real-Time Detectors for Digital and Physical Adversarial Inputs to
Perception Systems [11.752184033538636]
ディープニューラルネットワーク(DNN)モデルは、敵のデジタルおよび物理的攻撃に対して脆弱であることが証明されている。
そこで本研究では,DNNに基づく認識システムに対する敵対的入力の両タイプに対して,新たな攻撃・データセット非依存・リアルタイム検出手法を提案する。
特に、提案した検出器は、逆画像が特定のラベル不変変換に敏感であるという観察に依存している。
論文 参考訳(メタデータ) (2020-02-23T00:03:57Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。