論文の概要: A Person Re-identification Data Augmentation Method with Adversarial
Defense Effect
- arxiv url: http://arxiv.org/abs/2101.08783v2
- Date: Wed, 10 Feb 2021 07:41:10 GMT
- ステータス: 処理完了
- システム内更新日: 2021-03-21 15:56:40.221313
- Title: A Person Re-identification Data Augmentation Method with Adversarial
Defense Effect
- Title(参考訳): 対人防御効果を考慮した人物識別データ拡張手法
- Authors: Yunpeng Gong and Zhiyong Zeng and Liwen Chen and Yifan Luo and Bin
Weng and Feng Ye
- Abstract要約: 対角防御効果を有するReIDマルチモーダルデータ拡張法を提案する。
提案手法は,複数のデータセット上で良好に動作し,CVPR 2020 が提案する ReID に対する MS-SSIM 攻撃の防御に成功している。
- 参考スコア(独自算出の注目度): 5.8377608127737375
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The security of the Person Re-identification(ReID) model plays a decisive
role in the application of ReID. However, deep neural networks have been shown
to be vulnerable, and adding undetectable adversarial perturbations to clean
images can trick deep neural networks that perform well in clean images. We
propose a ReID multi-modal data augmentation method with adversarial defense
effect: 1) Grayscale Patch Replacement, it consists of Local Grayscale Patch
Replacement(LGPR) and Global Grayscale Patch Replacement(GGPR). This method can
not only improve the accuracy of the model, but also help the model defend
against adversarial examples; 2) Multi-Modal Defense, it integrates three
homogeneous modal images of visible, grayscale and sketch, and further
strengthens the defense ability of the model. These methods fuse different
modalities of homogeneous images to enrich the input sample variety, the
variaty of samples will reduce the over-fitting of the ReID model to color
variations and make the adversarial space of the dataset that the attack method
can find difficult to align, thus the accuracy of model is improved, and the
attack effect is greatly reduced. The more modal homogeneous images are fused,
the stronger the defense capabilities is . The proposed method performs well on
multiple datasets, and successfully defends the attack of MS-SSIM proposed by
CVPR2020 against ReID [10], and increases the accuracy by 467 times(0.2% to
93.3%).The code is available at
https://github.com/finger-monkey/ReID_Adversarial_Defense.
- Abstract(参考訳): 個人再識別(ReID)モデルのセキュリティは、ReIDの適用において決定的な役割を果たす。
しかし、ディープニューラルネットワークは脆弱であることが示されており、クリーンイメージに検出不能な逆向きの摂動を加えることで、クリーンイメージでうまく機能するディープニューラルネットワークを騙すことができる。
1) 局所greyscale patch replacement (lgpr) と global grayscale patch replacement (ggpr) からなるgreyscale patch replacement (ggpr) である。
この手法はモデルの精度を向上するだけでなく、モデルが敵の例に対して防御するのに役立つ。 2)マルチモードディフェンスでは、可視、グレースケール、スケッチの3つの同質なモーダルイメージを統合し、モデルの防御能力をさらに強化する。
これらの方法は、入力サンプルの多様性を高めるために、均質な画像の異なるモダリティを融合させ、サンプルのバリアリティは、ReIDモデルの過剰適合をカラーバリエーションに低減し、攻撃方法が整合し難いデータセットの逆空間を整合させることにより、モデルの精度が向上し、攻撃効果が大幅に低減される。
モードの均質な画像が融合するほど、防御能力は強くなる。
提案手法は複数のデータセット上で良好に動作し、cvpr2020 が reid [10] に対して提案した ms-ssim の攻撃を効果的に防御し、精度を 467 倍(0.2% から 93.3% に向上させる。
関連論文リスト
- MOREL: Enhancing Adversarial Robustness through Multi-Objective Representation Learning [1.534667887016089]
ディープニューラルネットワーク(DNN)は、わずかに敵対的な摂動に対して脆弱である。
トレーニング中の強力な特徴表現学習は、元のモデルの堅牢性を大幅に向上させることができることを示す。
本稿では,多目的特徴表現学習手法であるMORELを提案する。
論文 参考訳(メタデータ) (2024-10-02T16:05:03Z) - Anomaly Unveiled: Securing Image Classification against Adversarial
Patch Attacks [3.6275442368775512]
敵対的パッチ攻撃は、ディープラーニングシステムの実践的な展開に重大な脅威をもたらす。
本稿では,画像情報の分布における逆パッチの異常としての挙動について検討する。
提案する防御機構は,DBSCANと呼ばれるクラスタリング技術を用いて,異常な画像セグメントを分離する。
論文 参考訳(メタデータ) (2024-02-09T08:52:47Z) - Class-Conditioned Transformation for Enhanced Robust Image Classification [19.738635819545554]
本稿では,Adrial-versa-Trained (AT)モデルを強化する新しいテスト時間脅威モデルを提案する。
コンディショナル・イメージ・トランスフォーメーションとディスタンス・ベース・予測(CODIP)を用いて動作する。
提案手法は,様々なモデル,ATメソッド,データセット,アタックタイプに関する広範な実験を通じて,最先端の成果を実証する。
論文 参考訳(メタデータ) (2023-03-27T17:28:20Z) - Frequency Domain Model Augmentation for Adversarial Attack [91.36850162147678]
ブラックボックス攻撃の場合、代用モデルと被害者モデルの間のギャップは通常大きい。
そこで本研究では,通常の訓練モデルと防衛モデルの両方に対して,より伝達可能な対角線モデルを構築するための新しいスペクトルシミュレーション攻撃を提案する。
論文 参考訳(メタデータ) (2022-07-12T08:26:21Z) - Diffusion Models for Adversarial Purification [69.1882221038846]
対人浄化(Adrial purification)とは、生成モデルを用いて敵の摂動を除去する防衛方法の分類である。
そこで我々は,拡散モデルを用いたDiffPureを提案する。
提案手法は,現在の対人訓練および対人浄化方法よりも優れ,最先端の成果を達成する。
論文 参考訳(メタデータ) (2022-05-16T06:03:00Z) - An Effective Data Augmentation for Person Re-identification [0.0]
本稿では,ランダムグレースケール変換,ランダムグレースケールパッチ置換とその組み合わせについて述べる。
構造情報はreidモデルの性能に有意な影響を与えることが判明した。
提案手法は最大3.3%の性能向上を実現し,複数のデータセット上で現在最も高い検索精度を実現している。
論文 参考訳(メタデータ) (2021-01-21T10:33:02Z) - Random Transformation of Image Brightness for Adversarial Attack [5.405413975396116]
逆の例は、オリジナルの画像に小さな人間の知覚できないものを加えることで作られる。
ディープニューラルネットワークは、オリジナルの画像に小さな人間の知覚できないものを加えることで構築される敵の例に対して脆弱である。
本稿では,高速勾配符号法と統合可能な,この現象に基づく逆例生成手法を提案する。
本手法は,データ拡張に基づく他の攻撃方法よりもブラックボックス攻撃の成功率が高い。
論文 参考訳(メタデータ) (2021-01-12T07:00:04Z) - A Hamiltonian Monte Carlo Method for Probabilistic Adversarial Attack
and Learning [122.49765136434353]
本稿では,HMCAM (Acumulated Momentum) を用いたハミルトニアンモンテカルロ法を提案する。
また, 対数的対数的対数的学習(Contrastive Adversarial Training, CAT)と呼ばれる新たな生成法を提案し, 対数的例の平衡分布にアプローチする。
いくつかの自然画像データセットと実用システムに関する定量的および定性的な解析により、提案アルゴリズムの優位性が確認された。
論文 参考訳(メタデータ) (2020-10-15T16:07:26Z) - Online Alternate Generator against Adversarial Attacks [144.45529828523408]
ディープラーニングモデルは、実際の画像に準知覚可能なノイズを加えることによって合成される敵の例に非常に敏感である。
対象ネットワークのパラメータをアクセスしたり変更したりする必要のない,ポータブルな防御手法であるオンライン代替ジェネレータを提案する。
提案手法は,入力画像のスクラッチから別の画像をオンライン合成することで,対向雑音を除去・破壊する代わりに機能する。
論文 参考訳(メタデータ) (2020-09-17T07:11:16Z) - Dual Manifold Adversarial Robustness: Defense against Lp and non-Lp
Adversarial Attacks [154.31827097264264]
敵の訓練は、境界Lpノルムを持つ攻撃脅威モデルに対する一般的な防衛戦略である。
本稿では,2次元マニフォールド逆行訓練(DMAT)を提案する。
我々のDMATは、通常の画像の性能を改善し、Lp攻撃に対する標準的な敵の訓練と同等の堅牢性を達成する。
論文 参考訳(メタデータ) (2020-09-05T06:00:28Z) - Patch-wise Attack for Fooling Deep Neural Network [153.59832333877543]
我々は,一般的な訓練と防御モデルに対するブラックボックス攻撃であるパッチワイド反復アルゴリズムを提案する。
我々は、防衛モデルで9.2%、通常訓練されたモデルで3.7%、成功率で著しく改善した。
論文 参考訳(メタデータ) (2020-07-14T01:50:22Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。