論文の概要: Robust Person Re-identification with Multi-Modal Joint Defence
- arxiv url: http://arxiv.org/abs/2111.09571v1
- Date: Thu, 18 Nov 2021 08:13:49 GMT
- ステータス: 処理完了
- システム内更新日: 2021-11-19 20:26:39.646881
- Title: Robust Person Re-identification with Multi-Modal Joint Defence
- Title(参考訳): マルチモーダル関節防御によるロバストな人物再同定
- Authors: Yunpeng Gong and Lifei Chen
- Abstract要約: 既存の仕事は、主にメートル法防衛のための敵の訓練に依存している。
本稿では,メカニカルアタックとディフェンスメソッドのターゲット手法を提案する。
メカニカルディフェンスでは,プロアクティブディフェンスとパッシブディフェンスの2つの部分を含む共同ディフェンス法を提案する。
- 参考スコア(独自算出の注目度): 1.441703014203756
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The Person Re-identification (ReID) system based on metric learning has been
proved to inherit the vulnerability of deep neural networks (DNNs), which are
easy to be fooled by adversarail metric attacks. Existing work mainly relies on
adversarial training for metric defense, and more methods have not been fully
studied. By exploring the impact of attacks on the underlying features, we
propose targeted methods for metric attacks and defence methods. In terms of
metric attack, we use the local color deviation to construct the intra-class
variation of the input to attack color features. In terms of metric defenses,
we propose a joint defense method which includes two parts of proactive defense
and passive defense. Proactive defense helps to enhance the robustness of the
model to color variations and the learning of structure relations across
multiple modalities by constructing different inputs from multimodal images,
and passive defense exploits the invariance of structural features in a
changing pixel space by circuitous scaling to preserve structural features
while eliminating some of the adversarial noise. Extensive experiments
demonstrate that the proposed joint defense compared with the existing
adversarial metric defense methods which not only against multiple attacks at
the same time but also has not significantly reduced the generalization
capacity of the model. The code is available at
https://github.com/finger-monkey/multi-modal_joint_defence.
- Abstract(参考訳): メトリック学習に基づくperson re-identification(reid)システムは、adversarailメトリックアタックによって簡単に騙されるディープニューラルネットワーク(dnn)の脆弱性を継承することが証明されている。
既存の研究は主にメートル法防衛のための敵の訓練に依存しており、多くの手法が研究されていない。
本研究は,攻撃が基礎となる特徴に与える影響を探索し,メトリック攻撃と防御手法のターゲット手法を提案する。
メトリックアタックの観点からは、入力のクラス内変動を構築して色特徴を攻撃するために、局所的な色偏差を用いる。
メートル法防衛の観点からは,プロアクティブ防御とパッシブ防御の2つの部分を含む共同防衛手法を提案する。
積極的防御は、マルチモーダル画像からの異なる入力を構築することで、モデルの色変化に対する堅牢性や構造関係の学習を促進するのに役立ち、受動的防御は、回路的スケーリングによって変化する画素空間における構造的特徴の不変性を利用して、いくつかの対向ノイズを排除し、構造的特徴の保存を行う。
広範な実験により,提案手法は,複数の攻撃に対して同時に行うだけでなく,モデルの一般化能力を大幅に低下させることなく,既存の敵対的距離防衛手法と比較できることを示した。
コードはhttps://github.com/finger-monkey/multi-modal_joint_defenceで入手できる。
関連論文リスト
- Improving Adversarial Robustness via Decoupled Visual Representation Masking [65.73203518658224]
本稿では,特徴分布の観点から,ロバストな特徴の2つの新しい特性を強調した。
現状の防衛手法は、上記の2つの問題にうまく対処することを目的としている。
具体的には、分離された視覚的表現マスキングに基づく、シンプルだが効果的な防御法を提案する。
論文 参考訳(メタデータ) (2024-06-16T13:29:41Z) - Meta Invariance Defense Towards Generalizable Robustness to Unknown Adversarial Attacks [62.036798488144306]
現在の防衛は主に既知の攻撃に焦点を当てているが、未知の攻撃に対する敵意の強固さは見過ごされている。
メタ不変防衛(Meta Invariance Defense, MID)と呼ばれる攻撃非依存の防御手法を提案する。
MIDは高レベルの画像分類と低レベルの頑健な画像再生における攻撃抑制において,知覚不能な逆方向の摂動に対して同時に頑健性を実現する。
論文 参考訳(メタデータ) (2024-04-04T10:10:38Z) - Understanding the Robustness of Randomized Feature Defense Against
Query-Based Adversarial Attacks [23.010308600769545]
ディープニューラルネットワークは、元の画像に近いサンプルを見つける敵の例に弱いが、モデルを誤分類させる可能性がある。
モデル中間層における隠れた特徴にランダムノイズを付加することにより,ブラックボックス攻撃に対する簡易かつ軽量な防御法を提案する。
本手法は,スコアベースと決定ベースの両方のブラックボックス攻撃に対するモデルのレジリエンスを効果的に向上させる。
論文 参考訳(メタデータ) (2023-10-01T03:53:23Z) - Improving Adversarial Robustness to Sensitivity and Invariance Attacks
with Deep Metric Learning [80.21709045433096]
対向ロバスト性の標準的な方法は、サンプルを最小に摂動させることによって作られたサンプルに対して防御する枠組みを仮定する。
距離学習を用いて、最適輸送問題として逆正則化をフレーム化する。
予備的な結果から, 変分摂動の規則化は, 変分防御と敏感防御の両方を改善することが示唆された。
論文 参考訳(メタデータ) (2022-11-04T13:54:02Z) - Adaptive Feature Alignment for Adversarial Training [56.17654691470554]
CNNは通常、敵攻撃に対して脆弱であり、セキュリティに敏感なアプリケーションに脅威をもたらす。
任意の攻撃強度の特徴を生成するための適応的特徴アライメント(AFA)を提案する。
本手法は任意の攻撃強度の特徴を自動的に整列するように訓練されている。
論文 参考訳(メタデータ) (2021-05-31T17:01:05Z) - Internal Wasserstein Distance for Adversarial Attack and Defense [40.27647699862274]
本研究では,サンプルと対比例の画像類似度を測定するための内部Wasserstein距離(IWD)を提案する。
原試料中のパッチの分布を捉えた新しい攻撃手法を開発した。
我々はまた,未知の敵の例から守るためのロバストなモデルを学ぶための新しい防御手法も構築する。
論文 参考訳(メタデータ) (2021-03-13T02:08:02Z) - Attack Agnostic Adversarial Defense via Visual Imperceptible Bound [70.72413095698961]
本研究の目的は、目視攻撃と目視攻撃の両方に対して一定の範囲内で堅牢な防衛モデルを設計することである。
提案するディフェンスモデルは,MNIST,CIFAR-10,Tiny ImageNetデータベース上で評価される。
提案アルゴリズムは攻撃非依存であり,攻撃アルゴリズムの知識を必要としない。
論文 参考訳(メタデータ) (2020-10-25T23:14:26Z) - A Self-supervised Approach for Adversarial Robustness [105.88250594033053]
敵対的な例は、ディープニューラルネットワーク(DNN)ベースの視覚システムにおいて破滅的な誤りを引き起こす可能性がある。
本稿では,入力空間における自己教師型対向学習機構を提案する。
これは、反逆攻撃に対する強力な堅牢性を提供する。
論文 参考訳(メタデータ) (2020-06-08T20:42:39Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。