論文の概要: Look Closer to Your Enemy: Learning to Attack via Teacher-Student
Mimicking
- arxiv url: http://arxiv.org/abs/2207.13381v4
- Date: Sat, 2 Dec 2023 18:51:22 GMT
- ステータス: 処理完了
- システム内更新日: 2023-12-06 02:14:01.748003
- Title: Look Closer to Your Enemy: Learning to Attack via Teacher-Student
Mimicking
- Title(参考訳): 敵に近づこう: 教師と教師の模倣による攻撃を学ぶ
- Authors: Mingjie Wang, Jianxiong Guo, Sirui Li, Dingwen Xiao, Zhiqing Tang
- Abstract要約: ディープニューラルネットワークは、産業用インターネットの領域において、非常に高度な人物再識別(ReID)アプリケーションを持っている。
産業監視システムに侵入するためにこれらの脆弱性を使用する敵のリスクがある。
被害者モデル(VM)の誤分類フィードバックを用いた攻撃サンプルの生成に焦点をあてる現在の敵法
- 参考スコア(独自算出の注目度): 4.734229444790658
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Deep neural networks have significantly advanced person re-identification
(ReID) applications in the realm of the industrial internet, yet they remain
vulnerable. Thus, it is crucial to study the robustness of ReID systems, as
there are risks of adversaries using these vulnerabilities to compromise
industrial surveillance systems. Current adversarial methods focus on
generating attack samples using misclassification feedback from victim models
(VMs), neglecting VM's cognitive processes. We seek to address this by
producing authentic ReID attack instances through VM cognition decryption. This
approach boasts advantages like better transferability to open-set ReID tests,
easier VM misdirection, and enhanced creation of realistic and undetectable
assault images. However, the task of deciphering the cognitive mechanism in VM
is widely considered to be a formidable challenge. In this paper, we propose a
novel inconspicuous and controllable ReID attack baseline, LCYE (Look Closer to
Your Enemy), to generate adversarial query images. Specifically, LCYE first
distills VM's knowledge via teacher-student memory mimicking the proxy task.
This knowledge prior serves as an unambiguous cryptographic token,
encapsulating elements deemed indispensable and plausible by the VM, with the
intent of facilitating precise adversarial misdirection. Further, benefiting
from the multiple opposing task framework of LCYE, we investigate the
interpretability and generalization of ReID models from the view of the
adversarial attack, including cross-domain adaption, cross-model consensus, and
online learning process. Extensive experiments on four ReID benchmarks show
that our method outperforms other state-of-the-art attackers with a large
margin in white-box, black-box, and target attacks. The source code can be
found at https://github.com/MingjieWang0606/LCYE-attack_reid.
- Abstract(参考訳): ディープニューラルネットワークは、産業用インターネットの領域において、極めて高度な人物再識別(ReID)アプリケーションを持っているが、脆弱なままである。
したがって,ReIDシステムの堅牢性については,これらの脆弱性を産業監視システムに悪影響を及ぼすリスクがあるため,研究が不可欠である。
現在の敵対的手法は、被害者モデル(VM)からの誤分類フィードバックを使用して攻撃サンプルを生成することに焦点を当てており、VMの認知プロセスを無視している。
vm cognition decryptionを通じて、本物のreid攻撃インスタンスを生成することで、この問題に対処しようとしています。
このアプローチには、オープンセットのReIDテストへの転送性の向上、VMのミスダイレクトの容易化、現実的で検出不能なアタックイメージの生成の強化など、メリットがある。
しかし、VMにおける認知メカニズムを解読する作業は、非常に難しい課題であると考えられている。
本稿では,LCYE(Look Closer to Your Enemy)という,不明瞭で制御可能なReID攻撃ベースラインを提案する。
具体的には、LCYEはまずVMの知識を、プロキシタスクを模倣した教師のメモリ経由で蒸留する。
この知識は前もって不明瞭な暗号化トークンとして機能し、vmが必須かつ可能性の高い要素をカプセル化し、正確な敵の誤った指示を容易にする意図がある。
さらに、LCYEの複数対向タスク・フレームワークの利点を生かし、クロスドメイン適応、クロスモデルコンセンサス、オンライン学習プロセスを含む敵対的攻撃の観点から、ReIDモデルの解釈可能性と一般化について検討する。
4つのreidベンチマークに関する広範囲な実験により、この手法はホワイトボックス、ブラックボックス、ターゲット攻撃において、最先端の攻撃者よりも優れていることが示された。
ソースコードはhttps://github.com/MingjieWang0606/LCYE- attack_reidにある。
関連論文リスト
- You Know What I'm Saying: Jailbreak Attack via Implicit Reference [22.520950422702757]
本研究は、以前見過ごされた脆弱性を特定し、Implicit Reference (AIR) による攻撃(Attack)と呼ぶ。
AIRは悪意のある目的を許容可能な目的に分解し、コンテキスト内の暗黙の参照を通してそれらをリンクする。
我々の実験は、AIRが最先端のLLMに対して有効であることを示し、ほとんどのモデルで90%を超える攻撃成功率(ASR)を達成した。
論文 参考訳(メタデータ) (2024-10-04T18:42:57Z) - Meta Invariance Defense Towards Generalizable Robustness to Unknown Adversarial Attacks [62.036798488144306]
現在の防衛は主に既知の攻撃に焦点を当てているが、未知の攻撃に対する敵意の強固さは見過ごされている。
メタ不変防衛(Meta Invariance Defense, MID)と呼ばれる攻撃非依存の防御手法を提案する。
MIDは高レベルの画像分類と低レベルの頑健な画像再生における攻撃抑制において,知覚不能な逆方向の摂動に対して同時に頑健性を実現する。
論文 参考訳(メタデータ) (2024-04-04T10:10:38Z) - Improving behavior based authentication against adversarial attack using XAI [3.340314613771868]
本稿では,eXplainable AI(XAI)をベースとした,このようなシナリオにおける敵攻撃に対する防御戦略を提案する。
本手法で訓練した特徴セレクタは,元の認証器の前のフィルタとして使用することができる。
我々は,XAIをベースとした防衛戦略が敵の攻撃に対して有効であり,他の防衛戦略よりも優れていることを実証する。
論文 参考訳(メタデータ) (2024-02-26T09:29:05Z) - Pre-trained Trojan Attacks for Visual Recognition [106.13792185398863]
PVM(Pre-trained Vision Model)は、下流タスクを微調整する際、例外的なパフォーマンスのため、主要なコンポーネントとなっている。
本稿では,PVMにバックドアを埋め込んだトロイの木馬攻撃を提案する。
バックドア攻撃の成功において、クロスタスクアクティベーションとショートカット接続がもたらす課題を強調します。
論文 参考訳(メタデータ) (2023-12-23T05:51:40Z) - Unveiling Vulnerabilities in Interpretable Deep Learning Systems with
Query-Efficient Black-box Attacks [16.13790238416691]
解釈可能なディープラーニングシステム(IDLS)は、システムの透明性と説明性を高めるために設計されている。
本稿では,ターゲットモデルとその解釈モデルに関する事前知識を必要としない新規な微生物遺伝アルゴリズムによるIDLSに対するブラックボックス攻撃を提案する。
論文 参考訳(メタデータ) (2023-07-21T21:09:54Z) - Can Adversarial Examples Be Parsed to Reveal Victim Model Information? [62.814751479749695]
本研究では,データ固有の敵インスタンスから,データに依存しない被害者モデル(VM)情報を推測できるかどうかを問う。
我々は,135件の被害者モデルから生成された7種類の攻撃に対して,敵攻撃のデータセットを収集する。
単純な教師付きモデル解析ネットワーク(MPN)は、見えない敵攻撃からVM属性を推測できることを示す。
論文 参考訳(メタデータ) (2023-03-13T21:21:49Z) - Adv-Bot: Realistic Adversarial Botnet Attacks against Network Intrusion
Detection Systems [0.7829352305480285]
最近、機械学習ベースのセキュリティシステムに対する攻撃の可能性について調査する研究者が増えている。
本研究では,ネットワークによる侵入検知システムに対する敵攻撃,特に回避攻撃の実現可能性について検討した。
私たちのゴールは、意図した悪意のある機能をすべて実行しながら、検出を回避できる敵ボットネットトラフィックを作ることです。
論文 参考訳(メタデータ) (2023-03-12T14:01:00Z) - Invisible Backdoor Attack with Dynamic Triggers against Person
Re-identification [71.80885227961015]
個人再識別(ReID)は、広範囲の現実世界のアプリケーションで急速に進展しているが、敵攻撃の重大なリスクも生じている。
動的トリガー・インビジブル・バックドア・アタック(DT-IBA)と呼ばれる,ReIDに対する新たなバックドア・アタックを提案する。
本研究は,提案したベンチマークデータセットに対する攻撃の有効性と盗聴性を広範囲に検証し,攻撃に対する防御手法の有効性を評価する。
論文 参考訳(メタデータ) (2022-11-20T10:08:28Z) - Discriminator-Free Generative Adversarial Attack [87.71852388383242]
生成的ベースの敵攻撃は、この制限を取り除くことができる。
ASymmetric Saliency-based Auto-Encoder (SSAE) は摂動を生成する。
SSAEが生成した敵の例は、広く使われているモデルを崩壊させるだけでなく、優れた視覚的品質を実現する。
論文 参考訳(メタデータ) (2021-07-20T01:55:21Z) - Adversarial EXEmples: A Survey and Experimental Evaluation of Practical
Attacks on Machine Learning for Windows Malware Detection [67.53296659361598]
EXEmplesは、比較的少ない入力バイトを摂動することで、機械学習に基づく検出をバイパスすることができる。
我々は、機械学習モデルに対する過去の攻撃を包含し、一般化するだけでなく、3つの新たな攻撃を含む統一フレームワークを開発する。
これらの攻撃はFull DOS、Extended、Shiftと呼ばれ、DOSヘッダをそれぞれ操作し、拡張し、第1セクションの内容を変更することで、敵のペイロードを注入する。
論文 参考訳(メタデータ) (2020-08-17T07:16:57Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。