論文の概要: SSMI: How to Make Objects of Interest Disappear without Accessing Object
Detectors?
- arxiv url: http://arxiv.org/abs/2206.10809v1
- Date: Wed, 22 Jun 2022 02:16:35 GMT
- ステータス: 処理完了
- システム内更新日: 2022-06-23 14:11:37.440530
- Title: SSMI: How to Make Objects of Interest Disappear without Accessing Object
Detectors?
- Title(参考訳): SSMI:オブジェクト検出器を使わずに、関心のあるオブジェクトが消える方法
- Authors: Hui Xia, Rui Zhang, Zi Kang, Shuliang Jiang
- Abstract要約: 意味的セグメンテーションとモデルインバージョン(SSMI)に基づくブラックボックス逆攻撃方式
まず,意味的セグメンテーション手法を用いて対象物の位置を特定する。
次に、対象領域の画素を置き換えるために、周辺背景画素の置換を設計する。
- 参考スコア(独自算出の注目度): 8.026653670227445
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Most black-box adversarial attack schemes for object detectors mainly face
two shortcomings: requiring access to the target model and generating
inefficient adversarial examples (failing to make objects disappear in large
numbers). To overcome these shortcomings, we propose a black-box adversarial
attack scheme based on semantic segmentation and model inversion (SSMI). We
first locate the position of the target object using semantic segmentation
techniques. Next, we design a neighborhood background pixel replacement to
replace the target region pixels with background pixels to ensure that the
pixel modifications are not easily detected by human vision. Finally, we
reconstruct a machine-recognizable example and use the mask matrix to select
pixels in the reconstructed example to modify the benign image to generate an
adversarial example. Detailed experimental results show that SSMI can generate
efficient adversarial examples to evade human-eye perception and make objects
of interest disappear. And more importantly, SSMI outperforms existing same
kinds of attacks. The maximum increase in new and disappearing labels is 16%,
and the maximum decrease in mAP metrics for object detection is 36%.
- Abstract(参考訳): 対象検出器に対するブラックボックスの敵攻撃方式の多くは、主にターゲットモデルへのアクセスを必要とし、非効率な敵の例を生成するという2つの欠点に直面している。
これらの欠点を克服するために,意味的セグメンテーションとモデル反転(SSMI)に基づくブラックボックス攻撃方式を提案する。
まず,対象オブジェクトの位置を意味セグメンテーション技術を用いて特定する。
次に,対象領域の画素を背景画素に置き換えた周辺背景画素を設計し,人間の視覚で容易に検出できないようにした。
最後に、機械認識可能な例を再構成し、マスク行列を用いて再構成された例の画素を選択し、良性画像を修正して敵の例を生成する。
詳細な実験結果から、SSMIは人間の目からの知覚を回避し、興味のある物体を消滅させる効率的な敵の例を生成することができる。
さらに重要なことに、SSMIは既存の同様の攻撃よりも優れている。
新しいラベルと消えるラベルの最大増加は16%であり、オブジェクト検出のためのmAPメトリクスの最大減少は36%である。
関連論文リスト
- LAC-Net: Linear-Fusion Attention-Guided Convolutional Network for Accurate Robotic Grasping Under the Occlusion [79.22197702626542]
本稿では, 乱れ場面におけるロボットグルーピングのためのアモーダルセグメンテーションを探求する枠組みを提案する。
線形融合注意誘導畳み込みネットワーク(LAC-Net)を提案する。
その結果,本手法が最先端の性能を達成できることが示唆された。
論文 参考訳(メタデータ) (2024-08-06T14:50:48Z) - Imperceptible Face Forgery Attack via Adversarial Semantic Mask [59.23247545399068]
本稿では, 対向性, 可視性に優れた対向性例を生成できるASMA(Adversarial Semantic Mask Attack framework)を提案する。
具体的には, 局所的なセマンティック領域の摂動を抑制し, 良好なステルス性を実現する, 対向型セマンティックマスク生成モデルを提案する。
論文 参考訳(メタデータ) (2024-06-16T10:38:11Z) - Adaptive Face Recognition Using Adversarial Information Network [57.29464116557734]
顔認識モデルは、トレーニングデータがテストデータと異なる場合、しばしば退化する。
本稿では,新たな敵情報ネットワーク(AIN)を提案する。
論文 参考訳(メタデータ) (2023-05-23T02:14:11Z) - To Make Yourself Invisible with Adversarial Semantic Contours [47.755808439588094]
逆セマンティック・コンター(英: Adversarial Semantic Contour、ASC)は、物体の輪郭の前に騙されたスパース・アタックのベイズ的定式化の見積もりである。
ASCは、異なるアーキテクチャを持つ9つの近代検出器の予測を損なう可能性があることを示す。
我々は、様々なアーキテクチャを持つ物体検出器の共通弱点である輪郭について注意を払って結論付けた。
論文 参考訳(メタデータ) (2023-03-01T07:22:39Z) - Object-Attentional Untargeted Adversarial Attack [11.800889173823945]
本研究では,標的外攻撃に対する対象意図的攻撃法を提案する。
具体的には、まず、対象検出領域をYOLOv4からHVPNetから有能な対象検出領域と交差させてオブジェクト領域を生成する。
次に,SimBA(Simple Black-box Adversarial Attack)を利用して,検出対象領域に対してのみ敵攻撃を行う。
論文 参考訳(メタデータ) (2022-10-16T07:45:13Z) - Towards Robust Video Object Segmentation with Adaptive Object
Calibration [18.094698623128146]
ビデオオブジェクトセグメンテーション(VOS)は、参照フレームの注釈付きオブジェクトマスクを与えられたビデオのすべてのターゲットフレームにおけるオブジェクトのセグメンテーションを目的としている。
本稿では,オブジェクト表現を適応的に構築し,オブジェクトマスクを校正して強靭性を実現する,新しいディープネットワークを提案する。
本モデルは,既存の出版作品の最先端性能を達成し,摂動に対する優れた堅牢性を示す。
論文 参考訳(メタデータ) (2022-07-02T17:51:29Z) - End-to-End Instance Edge Detection [29.650295133113183]
エッジ検出は長い間、コンピュータビジョンの分野で重要な問題であった。
従来の研究は、カテゴリ非依存またはカテゴリ対応エッジ検出を探索してきた。
本稿では,オブジェクトインスタンスのコンテキストにおけるエッジ検出について検討する。
論文 参考訳(メタデータ) (2022-04-06T15:32:21Z) - You Better Look Twice: a new perspective for designing accurate
detectors with reduced computations [56.34005280792013]
BLT-netは、新しい低計算の2段階オブジェクト検出アーキテクチャである。
非常にエレガントな第1ステージを使用して、オブジェクトをバックグラウンドから分離することで、計算を削減します。
結果のイメージ提案は、高度に正確なモデルによって第2段階で処理される。
論文 参考訳(メタデータ) (2021-07-21T12:39:51Z) - Towards Accurate Pixel-wise Object Tracking by Attention Retrieval [50.06436600343181]
本稿では,バックボーンの特徴に対するソフト空間制約を実現するために,アテンション検索ネットワーク(ARN)を提案する。
私たちは40fpsで動作しながら、最近のピクセルワイドオブジェクトトラッキングベンチマークであるVOT 2020に最先端のベンチマークを新たに設定しました。
論文 参考訳(メタデータ) (2020-08-06T16:25:23Z) - Slot Contrastive Networks: A Contrastive Approach for Representing
Objects [15.54136919933527]
ラベルのないオブジェクトを表現するための既存のアプローチでは、静的なイメージを持つ構造化生成モデルが使用されている。
静止画像が提供する制限信号に対する画素空間の損失と過度信頼を回避する新しい手法を提案する。
本手法は,スロット表現の空間における識別的・時間的損失を学習することにより,物体の動きを利用する。
論文 参考訳(メタデータ) (2020-07-18T01:01:39Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。