論文の概要: Look Closer to Your Enemy: Learning to Attack via Teacher-student
Mimicking
- arxiv url: http://arxiv.org/abs/2207.13381v1
- Date: Wed, 27 Jul 2022 09:09:48 GMT
- ステータス: 処理完了
- システム内更新日: 2022-07-28 13:35:31.464813
- Title: Look Closer to Your Enemy: Learning to Attack via Teacher-student
Mimicking
- Title(参考訳): 敵に近づこう: 教師と教師の模倣による攻撃を学ぶ
- Authors: Mingejie Wang, Zhiqing Tang, Sirui Li and Dingwen Xiao
- Abstract要約: 本稿では,敵の心(VM)を読み取ることによって,人間再識別のリアルな攻撃サンプルであるReIDを生成することを目的とする。
4つのReIDベンチマーク実験により、この手法は、ホワイトボックス、ブラックボックス、ターゲットアタックにおいて大きなマージンを持つ最先端の攻撃者よりも優れていることが示された。
- 参考スコア(独自算出の注目度): 0.2752817022620644
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: This paper aims to generate realistic attack samples of person
re-identification, ReID, by reading the enemy's mind (VM). In this paper, we
propose a novel inconspicuous and controllable ReID attack baseline, LCYE, to
generate adversarial query images. Concretely, LCYE first distills VM's
knowledge via teacher-student memory mimicking in the proxy task. Then this
knowledge prior acts as an explicit cipher conveying what is essential and
realistic, believed by VM, for accurate adversarial misleading. Besides,
benefiting from the multiple opposing task framework of LCYE, we further
investigate the interpretability and generalization of ReID models from the
view of the adversarial attack, including cross-domain adaption, cross-model
consensus, and online learning process. Extensive experiments on four ReID
benchmarks show that our method outperforms other state-of-the-art attackers
with a large margin in white-box, black-box, and target attacks. Our code is
now available at https://gitfront.io/r/user-3704489/mKXusqDT4ffr/LCYE/.
- Abstract(参考訳): 本稿では,敵の心(VM)を読み取ることによって,人物の再識別の現実的な攻撃サンプルであるReIDを生成することを目的とする。
本稿では,新たな不明瞭かつ制御可能なReID攻撃ベースラインであるLCYEを提案する。
具体的には、LCYEが最初にVMの知識を、プロキシタスクで模倣する教師-学生メモリ経由で蒸留する。
次に、この知識は、vmが信じている本質的かつ現実的なものを伝える明示的な暗号として振る舞う。
さらに、LCYEの複数の対立するタスク・フレームワークの恩恵を受け、クロスドメイン適応、クロスモデル・コンセンサス、オンライン学習プロセスを含む敵攻撃の観点からReIDモデルの解釈可能性と一般化について検討する。
4つのreidベンチマークに関する広範囲な実験により、この手法はホワイトボックス、ブラックボックス、ターゲット攻撃において、最先端の攻撃者よりも優れていることが示された。
私たちのコードはhttps://gitfront.io/r/user-3704489/mKXusqDT4ffr/LCYE/で利用可能です。
関連論文リスト
- You Know What I'm Saying: Jailbreak Attack via Implicit Reference [22.520950422702757]
本研究は、以前見過ごされた脆弱性を特定し、Implicit Reference (AIR) による攻撃(Attack)と呼ぶ。
AIRは悪意のある目的を許容可能な目的に分解し、コンテキスト内の暗黙の参照を通してそれらをリンクする。
我々の実験は、AIRが最先端のLLMに対して有効であることを示し、ほとんどのモデルで90%を超える攻撃成功率(ASR)を達成した。
論文 参考訳(メタデータ) (2024-10-04T18:42:57Z) - Meta Invariance Defense Towards Generalizable Robustness to Unknown Adversarial Attacks [62.036798488144306]
現在の防衛は主に既知の攻撃に焦点を当てているが、未知の攻撃に対する敵意の強固さは見過ごされている。
メタ不変防衛(Meta Invariance Defense, MID)と呼ばれる攻撃非依存の防御手法を提案する。
MIDは高レベルの画像分類と低レベルの頑健な画像再生における攻撃抑制において,知覚不能な逆方向の摂動に対して同時に頑健性を実現する。
論文 参考訳(メタデータ) (2024-04-04T10:10:38Z) - Improving behavior based authentication against adversarial attack using XAI [3.340314613771868]
本稿では,eXplainable AI(XAI)をベースとした,このようなシナリオにおける敵攻撃に対する防御戦略を提案する。
本手法で訓練した特徴セレクタは,元の認証器の前のフィルタとして使用することができる。
我々は,XAIをベースとした防衛戦略が敵の攻撃に対して有効であり,他の防衛戦略よりも優れていることを実証する。
論文 参考訳(メタデータ) (2024-02-26T09:29:05Z) - Pre-trained Trojan Attacks for Visual Recognition [106.13792185398863]
PVM(Pre-trained Vision Model)は、下流タスクを微調整する際、例外的なパフォーマンスのため、主要なコンポーネントとなっている。
本稿では,PVMにバックドアを埋め込んだトロイの木馬攻撃を提案する。
バックドア攻撃の成功において、クロスタスクアクティベーションとショートカット接続がもたらす課題を強調します。
論文 参考訳(メタデータ) (2023-12-23T05:51:40Z) - Unveiling Vulnerabilities in Interpretable Deep Learning Systems with
Query-Efficient Black-box Attacks [16.13790238416691]
解釈可能なディープラーニングシステム(IDLS)は、システムの透明性と説明性を高めるために設計されている。
本稿では,ターゲットモデルとその解釈モデルに関する事前知識を必要としない新規な微生物遺伝アルゴリズムによるIDLSに対するブラックボックス攻撃を提案する。
論文 参考訳(メタデータ) (2023-07-21T21:09:54Z) - Can Adversarial Examples Be Parsed to Reveal Victim Model Information? [62.814751479749695]
本研究では,データ固有の敵インスタンスから,データに依存しない被害者モデル(VM)情報を推測できるかどうかを問う。
我々は,135件の被害者モデルから生成された7種類の攻撃に対して,敵攻撃のデータセットを収集する。
単純な教師付きモデル解析ネットワーク(MPN)は、見えない敵攻撃からVM属性を推測できることを示す。
論文 参考訳(メタデータ) (2023-03-13T21:21:49Z) - Adv-Bot: Realistic Adversarial Botnet Attacks against Network Intrusion
Detection Systems [0.7829352305480285]
最近、機械学習ベースのセキュリティシステムに対する攻撃の可能性について調査する研究者が増えている。
本研究では,ネットワークによる侵入検知システムに対する敵攻撃,特に回避攻撃の実現可能性について検討した。
私たちのゴールは、意図した悪意のある機能をすべて実行しながら、検出を回避できる敵ボットネットトラフィックを作ることです。
論文 参考訳(メタデータ) (2023-03-12T14:01:00Z) - Invisible Backdoor Attack with Dynamic Triggers against Person
Re-identification [71.80885227961015]
個人再識別(ReID)は、広範囲の現実世界のアプリケーションで急速に進展しているが、敵攻撃の重大なリスクも生じている。
動的トリガー・インビジブル・バックドア・アタック(DT-IBA)と呼ばれる,ReIDに対する新たなバックドア・アタックを提案する。
本研究は,提案したベンチマークデータセットに対する攻撃の有効性と盗聴性を広範囲に検証し,攻撃に対する防御手法の有効性を評価する。
論文 参考訳(メタデータ) (2022-11-20T10:08:28Z) - Discriminator-Free Generative Adversarial Attack [87.71852388383242]
生成的ベースの敵攻撃は、この制限を取り除くことができる。
ASymmetric Saliency-based Auto-Encoder (SSAE) は摂動を生成する。
SSAEが生成した敵の例は、広く使われているモデルを崩壊させるだけでなく、優れた視覚的品質を実現する。
論文 参考訳(メタデータ) (2021-07-20T01:55:21Z) - Adversarial EXEmples: A Survey and Experimental Evaluation of Practical
Attacks on Machine Learning for Windows Malware Detection [67.53296659361598]
EXEmplesは、比較的少ない入力バイトを摂動することで、機械学習に基づく検出をバイパスすることができる。
我々は、機械学習モデルに対する過去の攻撃を包含し、一般化するだけでなく、3つの新たな攻撃を含む統一フレームワークを開発する。
これらの攻撃はFull DOS、Extended、Shiftと呼ばれ、DOSヘッダをそれぞれ操作し、拡張し、第1セクションの内容を変更することで、敵のペイロードを注入する。
論文 参考訳(メタデータ) (2020-08-17T07:16:57Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。