論文の概要: Transferable, Controllable, and Inconspicuous Adversarial Attacks on
Person Re-identification With Deep Mis-Ranking
- arxiv url: http://arxiv.org/abs/2004.04199v1
- Date: Wed, 8 Apr 2020 18:48:29 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-15 09:22:40.978644
- Title: Transferable, Controllable, and Inconspicuous Adversarial Attacks on
Person Re-identification With Deep Mis-Ranking
- Title(参考訳): ディープミスランキングによる人物再識別における伝達性, 制御性, 不明瞭な敵対的攻撃
- Authors: Hongjun Wang, Guangrun Wang, Ya Li, Dongyu Zhang, and Liang Lin
- Abstract要約: システム出力のランキングを乱す学習とミスランクの定式化を提案する。
また,新たなマルチステージネットワークアーキテクチャを開発することで,バックボックス攻撃を行う。
そこで本手法では, 異なるマルチショットサンプリングにより, 悪意のある画素数を制御することができる。
- 参考スコア(独自算出の注目度): 83.48804199140758
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The success of DNNs has driven the extensive applications of person
re-identification (ReID) into a new era. However, whether ReID inherits the
vulnerability of DNNs remains unexplored. To examine the robustness of ReID
systems is rather important because the insecurity of ReID systems may cause
severe losses, e.g., the criminals may use the adversarial perturbations to
cheat the CCTV systems. In this work, we examine the insecurity of current
best-performing ReID models by proposing a learning-to-mis-rank formulation to
perturb the ranking of the system output. As the cross-dataset transferability
is crucial in the ReID domain, we also perform a back-box attack by developing
a novel multi-stage network architecture that pyramids the features of
different levels to extract general and transferable features for the
adversarial perturbations. Our method can control the number of malicious
pixels by using differentiable multi-shot sampling. To guarantee the
inconspicuousness of the attack, we also propose a new perception loss to
achieve better visual quality. Extensive experiments on four of the largest
ReID benchmarks (i.e., Market1501 [45], CUHK03 [18], DukeMTMC [33], and MSMT17
[40]) not only show the effectiveness of our method, but also provides
directions of the future improvement in the robustness of ReID systems. For
example, the accuracy of one of the best-performing ReID systems drops sharply
from 91.8% to 1.4% after being attacked by our method. Some attack results are
shown in Fig. 1. The code is available at
https://github.com/whj363636/Adversarial-attack-on-Person-ReID-With-Deep-Mis-Ranking.
- Abstract(参考訳): DNNの成功は、人物再識別(ReID)の広範な適用を新たな時代へと押し上げた。
しかし、ReIDがDNNの脆弱性を継承するかどうかは未定である。
ReIDシステムの堅牢性を調べるためには、ReIDシステムのセキュリティが著しく損なわれる可能性があるため、犯罪者はCCTVシステムを騙すために敵の摂動を利用することができる。
本研究では,システム出力のランキングを乱すために,学習とミスランクの定式化を提案することで,現在の最高のReIDモデルの安全性について検討する。
ReID領域では, クロスデータセット転送性が不可欠であるため, 異なるレベルの特徴をピラミッド化して, 対向的摂動の一般的な特徴と伝達可能な特徴を抽出する, 新たなマルチステージネットワークアーキテクチャを開発することで, バックボックス攻撃を行う。
本手法は,マルチショットサンプリングにより悪意のある画素数を制御することができる。
また,攻撃の目立たないことを保証するため,視覚品質向上のための新たな知覚損失を提案する。
reidベンチマークの最大4つ(market1501 [45], cuhk03 [18], dukemtmc [33], msmt17 [40])に対する広範な実験は、本手法の有効性を示すだけでなく、reidシステムの堅牢性の将来的な改善の方向性を提供する。
例えば、最も高性能なreidシステムの1つが攻撃を受けた後、91.8%から1.4%に激減した。
攻撃結果の一部が図1に示されている。
コードはhttps://github.com/whj363636/Adversarial- attack-on-Person-ReID-With-Deep-Mis-Rankingで公開されている。
関連論文リスト
- Multi-agent Reinforcement Learning-based Network Intrusion Detection System [3.4636217357968904]
侵入検知システム(IDS)は,コンピュータネットワークのセキュリティ確保において重要な役割を担っている。
本稿では,自動,効率的,堅牢なネットワーク侵入検出が可能な,新しいマルチエージェント強化学習(RL)アーキテクチャを提案する。
我々のソリューションは、新しい攻撃の追加に対応し、既存の攻撃パターンの変更に効果的に適応するように設計されたレジリエントなアーキテクチャを導入します。
論文 参考訳(メタデータ) (2024-07-08T09:18:59Z) - Corpus Poisoning via Approximate Greedy Gradient Descent [48.5847914481222]
本稿では,HotFlip法をベースとした高密度検索システムに対する新たな攻撃手法として,近似グレディ・グラディエント・Descentを提案する。
提案手法は,複数のデータセットと複数のレトリバーを用いて高い攻撃成功率を達成し,未知のクエリや新しいドメインに一般化可能であることを示す。
論文 参考訳(メタデータ) (2024-06-07T17:02:35Z) - Lazy Layers to Make Fine-Tuned Diffusion Models More Traceable [70.77600345240867]
新たな任意の任意配置(AIAO)戦略は、微調整による除去に耐性を持たせる。
拡散モデルの入力/出力空間のバックドアを設計する既存の手法とは異なり,本手法では,サンプルサブパスの特徴空間にバックドアを埋め込む方法を提案する。
MS-COCO,AFHQ,LSUN,CUB-200,DreamBoothの各データセットに関する実証研究により,AIAOの堅牢性が確認された。
論文 参考訳(メタデータ) (2024-05-01T12:03:39Z) - Combining Two Adversarial Attacks Against Person Re-Identification
Systems [0.0]
我々はRe-IDシステムに対する敵攻撃に焦点を当てており、これらのシステムの性能に重大な脅威となる可能性がある。
P-FGSMとDeep Mis-Rankingの2種類の逆攻撃を2種類のRe-IDモデルに適用した。
最も良い結果は、CUHK03に適用されたReIDのランク10メートル法で3.36%の減少を示している。
論文 参考訳(メタデータ) (2023-09-24T22:22:29Z) - Benchmarks for Corruption Invariant Person Re-identification [31.919264399996475]
本研究では,マーケット-1501,CUHK03,MSMT17,RegDB,SYSU-MM01など,単品間および多品間データセットにおける汚い不変性学習について検討した。
トランスフォーマーベースのモデルは、CNNベースのモデルと比較して、破損したイメージに対してより堅牢である。
クロスデータセットの一般化は、腐敗の堅牢性を高めることで改善される。
論文 参考訳(メタデータ) (2021-11-01T12:14:28Z) - Multi-Expert Adversarial Attack Detection in Person Re-identification
Using Context Inconsistency [47.719533482898306]
本稿では,個人再識別(ReID)システムに対する悪意のある攻撃を検知するための,Multi-Expert Adversarial Detection(MEAAD)アプローチを提案する。
ReIDに対する最初の敵攻撃検出アプローチとして、MEAADは様々な敵攻撃を効果的に検出し、高いROC-AUC(97.5%以上)を達成する。
論文 参考訳(メタデータ) (2021-08-23T01:59:09Z) - Towards Adversarial Patch Analysis and Certified Defense against Crowd
Counting [61.99564267735242]
安全クリティカルな監視システムの重要性から、群衆のカウントは多くの注目を集めています。
近年の研究では、ディープニューラルネットワーク(DNN)の手法が敵の攻撃に弱いことが示されている。
群衆カウントモデルのロバスト性を評価するために,Momentumを用いた攻撃戦略としてAdversarial Patch Attackを提案する。
論文 参考訳(メタデータ) (2021-04-22T05:10:55Z) - Towards Transferable Adversarial Attack against Deep Face Recognition [58.07786010689529]
ディープ畳み込みニューラルネットワーク(DCNN)は敵の例に弱いことが判明した。
転送可能な敵の例は、DCNNの堅牢性を著しく妨げます。
DFANetは畳み込み層で使用されるドロップアウトベースの手法であり,サロゲートモデルの多様性を高めることができる。
クエリなしで4つの商用APIをうまく攻撃できる新しい対向顔ペアを生成します。
論文 参考訳(メタデータ) (2020-04-13T06:44:33Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。