論文の概要: Transferable, Controllable, and Inconspicuous Adversarial Attacks on
Person Re-identification With Deep Mis-Ranking
- arxiv url: http://arxiv.org/abs/2004.04199v1
- Date: Wed, 8 Apr 2020 18:48:29 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-15 09:22:40.978644
- Title: Transferable, Controllable, and Inconspicuous Adversarial Attacks on
Person Re-identification With Deep Mis-Ranking
- Title(参考訳): ディープミスランキングによる人物再識別における伝達性, 制御性, 不明瞭な敵対的攻撃
- Authors: Hongjun Wang, Guangrun Wang, Ya Li, Dongyu Zhang, and Liang Lin
- Abstract要約: システム出力のランキングを乱す学習とミスランクの定式化を提案する。
また,新たなマルチステージネットワークアーキテクチャを開発することで,バックボックス攻撃を行う。
そこで本手法では, 異なるマルチショットサンプリングにより, 悪意のある画素数を制御することができる。
- 参考スコア(独自算出の注目度): 83.48804199140758
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The success of DNNs has driven the extensive applications of person
re-identification (ReID) into a new era. However, whether ReID inherits the
vulnerability of DNNs remains unexplored. To examine the robustness of ReID
systems is rather important because the insecurity of ReID systems may cause
severe losses, e.g., the criminals may use the adversarial perturbations to
cheat the CCTV systems. In this work, we examine the insecurity of current
best-performing ReID models by proposing a learning-to-mis-rank formulation to
perturb the ranking of the system output. As the cross-dataset transferability
is crucial in the ReID domain, we also perform a back-box attack by developing
a novel multi-stage network architecture that pyramids the features of
different levels to extract general and transferable features for the
adversarial perturbations. Our method can control the number of malicious
pixels by using differentiable multi-shot sampling. To guarantee the
inconspicuousness of the attack, we also propose a new perception loss to
achieve better visual quality. Extensive experiments on four of the largest
ReID benchmarks (i.e., Market1501 [45], CUHK03 [18], DukeMTMC [33], and MSMT17
[40]) not only show the effectiveness of our method, but also provides
directions of the future improvement in the robustness of ReID systems. For
example, the accuracy of one of the best-performing ReID systems drops sharply
from 91.8% to 1.4% after being attacked by our method. Some attack results are
shown in Fig. 1. The code is available at
https://github.com/whj363636/Adversarial-attack-on-Person-ReID-With-Deep-Mis-Ranking.
- Abstract(参考訳): DNNの成功は、人物再識別(ReID)の広範な適用を新たな時代へと押し上げた。
しかし、ReIDがDNNの脆弱性を継承するかどうかは未定である。
ReIDシステムの堅牢性を調べるためには、ReIDシステムのセキュリティが著しく損なわれる可能性があるため、犯罪者はCCTVシステムを騙すために敵の摂動を利用することができる。
本研究では,システム出力のランキングを乱すために,学習とミスランクの定式化を提案することで,現在の最高のReIDモデルの安全性について検討する。
ReID領域では, クロスデータセット転送性が不可欠であるため, 異なるレベルの特徴をピラミッド化して, 対向的摂動の一般的な特徴と伝達可能な特徴を抽出する, 新たなマルチステージネットワークアーキテクチャを開発することで, バックボックス攻撃を行う。
本手法は,マルチショットサンプリングにより悪意のある画素数を制御することができる。
また,攻撃の目立たないことを保証するため,視覚品質向上のための新たな知覚損失を提案する。
reidベンチマークの最大4つ(market1501 [45], cuhk03 [18], dukemtmc [33], msmt17 [40])に対する広範な実験は、本手法の有効性を示すだけでなく、reidシステムの堅牢性の将来的な改善の方向性を提供する。
例えば、最も高性能なreidシステムの1つが攻撃を受けた後、91.8%から1.4%に激減した。
攻撃結果の一部が図1に示されている。
コードはhttps://github.com/whj363636/Adversarial- attack-on-Person-ReID-With-Deep-Mis-Rankingで公開されている。
関連論文リスト
- Towards Evaluating Transfer-based Attacks Systematically, Practically,
and Fairly [79.07074710460012]
ディープニューラルネットワーク(DNN)の敵対的脆弱性に大きな注目を集めている。
ブラックボックスDNNモデルを騙すための転送ベース手法が増えている。
30以上のメソッドを実装した転送ベースアタックベンチマーク(TA-Bench)を確立する。
論文 参考訳(メタデータ) (2023-11-02T15:35:58Z) - Combining Two Adversarial Attacks Against Person Re-Identification
Systems [0.0]
我々はRe-IDシステムに対する敵攻撃に焦点を当てており、これらのシステムの性能に重大な脅威となる可能性がある。
P-FGSMとDeep Mis-Rankingの2種類の逆攻撃を2種類のRe-IDモデルに適用した。
最も良い結果は、CUHK03に適用されたReIDのランク10メートル法で3.36%の減少を示している。
論文 参考訳(メタデータ) (2023-09-24T22:22:29Z) - Benchmarks for Corruption Invariant Person Re-identification [31.919264399996475]
本研究では,マーケット-1501,CUHK03,MSMT17,RegDB,SYSU-MM01など,単品間および多品間データセットにおける汚い不変性学習について検討した。
トランスフォーマーベースのモデルは、CNNベースのモデルと比較して、破損したイメージに対してより堅牢である。
クロスデータセットの一般化は、腐敗の堅牢性を高めることで改善される。
論文 参考訳(メタデータ) (2021-11-01T12:14:28Z) - Multi-Expert Adversarial Attack Detection in Person Re-identification
Using Context Inconsistency [47.719533482898306]
本稿では,個人再識別(ReID)システムに対する悪意のある攻撃を検知するための,Multi-Expert Adversarial Detection(MEAAD)アプローチを提案する。
ReIDに対する最初の敵攻撃検出アプローチとして、MEAADは様々な敵攻撃を効果的に検出し、高いROC-AUC(97.5%以上)を達成する。
論文 参考訳(メタデータ) (2021-08-23T01:59:09Z) - Towards Adversarial Patch Analysis and Certified Defense against Crowd
Counting [61.99564267735242]
安全クリティカルな監視システムの重要性から、群衆のカウントは多くの注目を集めています。
近年の研究では、ディープニューラルネットワーク(DNN)の手法が敵の攻撃に弱いことが示されている。
群衆カウントモデルのロバスト性を評価するために,Momentumを用いた攻撃戦略としてAdversarial Patch Attackを提案する。
論文 参考訳(メタデータ) (2021-04-22T05:10:55Z) - Aurora Guard: Reliable Face Anti-Spoofing via Mobile Lighting System [103.5604680001633]
紙写真やデジタルビデオの高解像度レンダリングリプレイに対する反偽造は、未解決の問題だ。
オーロラガード(Aurora Guard, AG)と呼ばれる, シンプルだが効果的な顔保護システムを提案する。
論文 参考訳(メタデータ) (2021-02-01T09:17:18Z) - Towards Transferable Adversarial Attack against Deep Face Recognition [58.07786010689529]
ディープ畳み込みニューラルネットワーク(DCNN)は敵の例に弱いことが判明した。
転送可能な敵の例は、DCNNの堅牢性を著しく妨げます。
DFANetは畳み込み層で使用されるドロップアウトベースの手法であり,サロゲートモデルの多様性を高めることができる。
クエリなしで4つの商用APIをうまく攻撃できる新しい対向顔ペアを生成します。
論文 参考訳(メタデータ) (2020-04-13T06:44:33Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。