論文の概要: Adversarial Attack on Deep Product Quantization Network for Image
Retrieval
- arxiv url: http://arxiv.org/abs/2002.11374v1
- Date: Wed, 26 Feb 2020 09:25:58 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-28 15:20:01.310102
- Title: Adversarial Attack on Deep Product Quantization Network for Image
Retrieval
- Title(参考訳): 画像検索のための深部製品量子化ネットワークの逆攻撃
- Authors: Yan Feng, Bin Chen, Tao Dai, Shutao Xia
- Abstract要約: 近年,高速画像検索においてDPQN (Deep Product Quantization Network) が注目されている。
近年の研究では、ディープニューラルネットワーク(DNN)は、小さく、悪意のある設計の摂動によって入力に弱いことが示されている。
本稿では,製品量子化に基づく検索システムに対して,製品量子化逆生成(PQ-AG)を提案する。
- 参考スコア(独自算出の注目度): 74.85736968193879
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Deep product quantization network (DPQN) has recently received much attention
in fast image retrieval tasks due to its efficiency of encoding
high-dimensional visual features especially when dealing with large-scale
datasets. Recent studies show that deep neural networks (DNNs) are vulnerable
to input with small and maliciously designed perturbations (a.k.a., adversarial
examples). This phenomenon raises the concern of security issues for DPQN in
the testing/deploying stage as well. However, little effort has been devoted to
investigating how adversarial examples affect DPQN. To this end, we propose
product quantization adversarial generation (PQ-AG), a simple yet effective
method to generate adversarial examples for product quantization based
retrieval systems. PQ-AG aims to generate imperceptible adversarial
perturbations for query images to form adversarial queries, whose nearest
neighbors from a targeted product quantizaiton model are not semantically
related to those from the original queries. Extensive experiments show that our
PQ-AQ successfully creates adversarial examples to mislead targeted product
quantization retrieval models. Besides, we found that our PQ-AG significantly
degrades retrieval performance in both white-box and black-box settings.
- Abstract(参考訳): 近年,特に大規模データセットを扱う場合の高次元視覚特徴の符号化の効率化により,高速画像検索タスクにおいてDPQN (Deep Product Quantization Network) が注目されている。
近年の研究では、ディープニューラルネットワーク(DNN)は、小さく、悪意のある設計の摂動(敵の例)によって入力に弱いことが示されている。
この現象は、テスト/デプロイの段階でもDPQNのセキュリティ上の問題を引き起こす。
しかし,対局例がdpqnに与える影響についてはほとんど調査されていない。
そこで本研究では, 製品量子化に基づく検索システムにおいて, 逆の例を簡易かつ効果的に生成するPQ-AGを提案する。
PQ-AGは、ターゲットとする製品Quantizaitonモデルから最も近い隣人が、元のクエリと意味的に関係しない、逆クエリを形成するために、クエリイメージに対する知覚できない逆摂動を生成することを目的としている。
大規模な実験により,我々のPQ-AQは,対象とする製品量子化検索モデルを誤導する逆例をうまく生成できた。
さらに,PQ-AGは,ホワイトボックスとブラックボックスの両方で検索性能を著しく低下させることがわかった。
関連論文リスト
- Causal Perception Inspired Representation Learning for Trustworthy Image Quality Assessment [2.290956583394892]
我々は、因果知覚にインスパイアされた表現学習(CPRL)を通して信頼できるIQAモデルを構築することを提案する。
CPRLは主観的品質ラベルの因果関係として機能し、それは知覚できない逆境の摂動に不変である。
4つのベンチマークデータベース上での実験により,提案手法は,最先端の敵防衛法よりも優れた性能を示した。
論文 参考訳(メタデータ) (2024-04-30T13:55:30Z) - STBA: Towards Evaluating the Robustness of DNNs for Query-Limited Black-box Scenario [50.37501379058119]
本研究では,クエリ制限シナリオにおいて,悪意のある逆の例を作成するために,空間変換ブラックボックス攻撃(STBA)を提案する。
そこで本研究では,STBAが対向例の認識不能性を効果的に改善し,クエリ制限条件下での攻撃成功率を大幅に向上できることを示す。
論文 参考訳(メタデータ) (2024-03-30T13:28:53Z) - Concurrent Density Estimation with Wasserstein Autoencoders: Some
Statistical Insights [20.894503281724052]
ワッサースタインオートエンコーダ(Wasserstein Autoencoders、WAE)は、深層生成モデルの領域における先駆的な力である。
我々の研究は、WAEの背後にある機械の理論的理解を提供する試みである。
論文 参考訳(メタデータ) (2023-12-11T18:27:25Z) - A Geometrical Approach to Evaluate the Adversarial Robustness of Deep
Neural Networks [52.09243852066406]
対向収束時間スコア(ACTS)は、対向ロバストネス指標として収束時間を測定する。
我々は,大規模画像Netデータセットに対する異なる敵攻撃に対して,提案したACTSメトリックの有効性と一般化を検証する。
論文 参考訳(メタデータ) (2023-10-10T09:39:38Z) - Small Object Detection via Coarse-to-fine Proposal Generation and
Imitation Learning [52.06176253457522]
本稿では,粗粒度パイプラインと特徴模倣学習に基づく小型物体検出に適した2段階フレームワークを提案する。
CFINetは、大規模な小さなオブジェクト検出ベンチマークであるSODA-DとSODA-Aで最先端の性能を達成する。
論文 参考訳(メタデータ) (2023-08-18T13:13:09Z) - Discriminator-Free Generative Adversarial Attack [87.71852388383242]
生成的ベースの敵攻撃は、この制限を取り除くことができる。
ASymmetric Saliency-based Auto-Encoder (SSAE) は摂動を生成する。
SSAEが生成した敵の例は、広く使われているモデルを崩壊させるだけでなく、優れた視覚的品質を実現する。
論文 参考訳(メタデータ) (2021-07-20T01:55:21Z) - Improving Query Efficiency of Black-box Adversarial Attack [75.71530208862319]
ニューラルプロセスに基づくブラックボックス対逆攻撃(NP-Attack)を提案する。
NP-Attackはブラックボックス設定でクエリ数を大幅に削減できる。
論文 参考訳(メタデータ) (2020-09-24T06:22:56Z) - Towards Robust Classification with Image Quality Assessment [0.9213700601337386]
ディープ畳み込みニューラルネットワーク(DCNN)は、敵対的な例に対して脆弱であり、知覚品質や画像の取得条件に敏感である。
本稿では,敵対的操作と画像品質の関連性について検討し,保護機構を提案する。
本手法は,DCCNを誘導する入力画像を検出するために,画像品質評価と知識蒸留を組み合わせる。
論文 参考訳(メタデータ) (2020-04-14T03:27:35Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。