論文の概要: QAIR: Practical Query-efficient Black-Box Attacks for Image Retrieval
- arxiv url: http://arxiv.org/abs/2103.02927v1
- Date: Thu, 4 Mar 2021 10:18:43 GMT
- ステータス: 処理完了
- システム内更新日: 2021-03-05 14:57:37.469249
- Title: QAIR: Practical Query-efficient Black-Box Attacks for Image Retrieval
- Title(参考訳): QAIR:画像検索のためのクエリ効率の高いブラックボックス攻撃
- Authors: Xiaodan Li, Jinfeng Li, Yuefeng Chen, Shaokai Ye, Yuan He, Shuhui
Wang, Hang Su, Hui Xue
- Abstract要約: 画像検索に対するクエリベースの攻撃について検討し,ブラックボックス設定下での対比例に対する堅牢性を評価する。
新たな関連性に基づく損失は、攻撃前後のトップk検索結果のセット類似度を測定して攻撃効果を定量化するように設計されている。
提案手法は,ブラックボックス設定による画像検索システムに対するクエリ数が少なく,高い攻撃成功率を達成できることを示す実験である。
- 参考スコア(独自算出の注目度): 56.51916317628536
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We study the query-based attack against image retrieval to evaluate its
robustness against adversarial examples under the black-box setting, where the
adversary only has query access to the top-k ranked unlabeled images from the
database. Compared with query attacks in image classification, which produce
adversaries according to the returned labels or confidence score, the challenge
becomes even more prominent due to the difficulty in quantifying the attack
effectiveness on the partial retrieved list. In this paper, we make the first
attempt in Query-based Attack against Image Retrieval (QAIR), to completely
subvert the top-k retrieval results. Specifically, a new relevance-based loss
is designed to quantify the attack effects by measuring the set similarity on
the top-k retrieval results before and after attacks and guide the gradient
optimization. To further boost the attack efficiency, a recursive model
stealing method is proposed to acquire transferable priors on the target model
and generate the prior-guided gradients. Comprehensive experiments show that
the proposed attack achieves a high attack success rate with few queries
against the image retrieval systems under the black-box setting. The attack
evaluations on the real-world visual search engine show that it successfully
deceives a commercial system such as Bing Visual Search with 98% attack success
rate by only 33 queries on average.
- Abstract(参考訳): 画像検索に対するクエリーベースの攻撃について検討し、ブラックボックス設定下では、データベースから上位kランクのラベルなし画像へのクエリーアクセスしか持たない、敵対的な例に対する堅牢性を評価する。
返却されたラベルや信頼スコアに応じて敵を生成する画像分類におけるクエリーアタックと比較すると、部分的検索リストにおける攻撃効果の定量化が困難であるため、課題はさらに顕著になる。
本稿では,QAIR(Query-based Attack against Image Retrieval)を初めて試行し,トップk検索結果を完全に変換する。
具体的には、攻撃前後の上位K検索結果に対するセット類似度を測定し、勾配最適化を導くことにより、攻撃効果の定量化を図る。
攻撃効率をさらに高めるため、ターゲットモデル上で転送可能なプリエントを取得し、事前誘導勾配を生成する再帰的モデル盗み法を提案する。
総合的な実験により,ブラックボックス設定による画像検索システムに対するクエリ数が少なく,高い攻撃成功率を達成した。
現実世界のビジュアル検索エンジンの攻撃評価は、Bing Visual Searchのような商用システムを、平均33のクエリで98%の攻撃成功率で欺くことに成功したことを示している。
関連論文リスト
- AdvQDet: Detecting Query-Based Adversarial Attacks with Adversarial Contrastive Prompt Tuning [93.77763753231338]
CLIP画像エンコーダを微調整し、2つの中間対向クエリに対して同様の埋め込みを抽出するために、ACPT(Adversarial Contrastive Prompt Tuning)を提案する。
我々は,ACPTが7つの最先端クエリベースの攻撃を検出できることを示す。
また,ACPTは3種類のアダプティブアタックに対して堅牢であることを示す。
論文 参考訳(メタデータ) (2024-08-04T09:53:50Z) - BruSLeAttack: A Query-Efficient Score-Based Black-Box Sparse Adversarial Attack [22.408968332454062]
モデルクエリに対するスコアベースの応答を単純に観察することで、スパース対逆サンプルを生成するという、独特であまりよく理解されていない問題について検討する。
この問題に対するBruSLeAttackアルゴリズムを開発した。
私たちの作業は、モデル脆弱性の迅速な評価を促進し、デプロイされたシステムの安全性、セキュリティ、信頼性に対する警戒を高めます。
論文 参考訳(メタデータ) (2024-04-08T08:59:26Z) - Query Efficient Cross-Dataset Transferable Black-Box Attack on Action
Recognition [99.29804193431823]
ブラックボックスの敵攻撃は、行動認識システムに現実的な脅威をもたらす。
本稿では,摂動を発生させることにより,これらの欠点に対処する新たな行動認識攻撃を提案する。
提案手法は,最先端のクエリベースおよび転送ベース攻撃と比較して,8%,12%の偽装率を達成する。
論文 参考訳(メタデータ) (2022-11-23T17:47:49Z) - A Tale of HodgeRank and Spectral Method: Target Attack Against Rank
Aggregation Is the Fixed Point of Adversarial Game [153.74942025516853]
ランクアグリゲーション手法の本質的な脆弱性は文献ではよく研究されていない。
本稿では,ペアデータの変更による集計結果の指定を希望する目的のある敵に焦点をあてる。
提案した標的攻撃戦略の有効性は,一連の玩具シミュレーションと実世界のデータ実験によって実証された。
論文 参考訳(メタデータ) (2022-09-13T05:59:02Z) - Blackbox Attacks via Surrogate Ensemble Search [18.413568112132197]
代理アンサンブルサーチ(BASES)によるブラックボックス攻撃の新しい手法を提案する。
提案手法は,最先端の手法と比較して,少なくとも30倍少ないクエリで良好な成功率が得られることを示す。
われわれの方法はGoogle Cloud Vision APIでも有効であり、画像当たり2.9クエリで91%の非ターゲット攻撃成功率を達成した。
論文 参考訳(メタデータ) (2022-08-07T01:24:11Z) - Zero-Query Transfer Attacks on Context-Aware Object Detectors [95.18656036716972]
敵は、ディープニューラルネットワークが誤った分類結果を生成するような摂動画像を攻撃する。
自然の多目的シーンに対する敵対的攻撃を防御するための有望なアプローチは、文脈整合性チェックを課すことである。
本稿では,コンテキスト整合性チェックを回避可能な,コンテキスト整合性攻撃を生成するための最初のアプローチを提案する。
論文 参考訳(メタデータ) (2022-03-29T04:33:06Z) - Geometrically Adaptive Dictionary Attack on Face Recognition [23.712389625037442]
顔認証に対するクエリ効率の良いブラックボックス攻撃のための戦略を提案する。
中心となるアイデアは、UVテクスチャマップに逆方向の摂動を作り、それを画像の顔に投影することです。
LFWデータセットとCPLFWデータセットの実験において、圧倒的な性能改善を示す。
論文 参考訳(メタデータ) (2021-11-08T10:26:28Z) - Gradient-based Adversarial Attacks against Text Transformers [96.73493433809419]
トランスモデルに対する初の汎用勾配攻撃を提案する。
我々は、ホワイトボックス攻撃が様々な自然言語タスクにおいて最先端の攻撃性能を達成することを実証的に実証する。
論文 参考訳(メタデータ) (2021-04-15T17:43:43Z) - Detecting Patch Adversarial Attacks with Image Residuals [9.169947558498535]
識別器は、クリーンサンプルと逆サンプルを区別するために訓練される。
得られた残基が敵攻撃のデジタル指紋として機能することを示す。
その結果,提案手法は従来見つからなかった,より強力な攻撃に対して一般化可能であることがわかった。
論文 参考訳(メタデータ) (2020-02-28T01:28:22Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。