論文の概要: AGKD-BML: Defense Against Adversarial Attack by Attention Guided
Knowledge Distillation and Bi-directional Metric Learning
- arxiv url: http://arxiv.org/abs/2108.06017v1
- Date: Fri, 13 Aug 2021 01:25:04 GMT
- ステータス: 処理完了
- システム内更新日: 2021-08-16 21:18:57.577485
- Title: AGKD-BML: Defense Against Adversarial Attack by Attention Guided
Knowledge Distillation and Bi-directional Metric Learning
- Title(参考訳): AGKD-BML:意識指導型知識蒸留と双方向メトリック学習による敵攻撃に対する防御
- Authors: Hong Wang, Yuefan Deng, Shinjae Yoo, Haibin Ling, Yuewei Lin
- Abstract要約: Atention Guided Knowledge Distillation and Bi-directional Metric Learning (AGKD-BML) による新しい対人訓練ベースモデルを提案する。
提案したAGKD-BMLモデルは,最先端のアプローチよりも一貫して優れている。
- 参考スコア(独自算出の注目度): 61.8003954296545
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: While deep neural networks have shown impressive performance in many tasks,
they are fragile to carefully designed adversarial attacks. We propose a novel
adversarial training-based model by Attention Guided Knowledge Distillation and
Bi-directional Metric Learning (AGKD-BML). The attention knowledge is obtained
from a weight-fixed model trained on a clean dataset, referred to as a teacher
model, and transferred to a model that is under training on adversarial
examples (AEs), referred to as a student model. In this way, the student model
is able to focus on the correct region, as well as correcting the intermediate
features corrupted by AEs to eventually improve the model accuracy. Moreover,
to efficiently regularize the representation in feature space, we propose a
bidirectional metric learning. Specifically, given a clean image, it is first
attacked to its most confusing class to get the forward AE. A clean image in
the most confusing class is then randomly picked and attacked back to the
original class to get the backward AE. A triplet loss is then used to shorten
the representation distance between original image and its AE, while enlarge
that between the forward and backward AEs. We conduct extensive adversarial
robustness experiments on two widely used datasets with different attacks. Our
proposed AGKD-BML model consistently outperforms the state-of-the-art
approaches. The code of AGKD-BML will be available at:
https://github.com/hongw579/AGKD-BML.
- Abstract(参考訳): ディープニューラルネットワークは多くのタスクで顕著なパフォーマンスを示しているが、慎重に設計された敵攻撃には脆弱である。
注意誘導知識蒸留と双方向メトリックラーニング(agkd-bml)による新しい対向訓練モデルを提案する。
注意知識は、教師モデルと呼ばれるクリーンデータセットでトレーニングされた重み付けモデルから得られ、生徒モデルと呼ばれる逆例(AE)のトレーニングを受けているモデルに転送される。
このようにして、学生モデルは正しい領域に焦点を合わせることができ、また、AEsが破損した中間的特徴を修正して最終的にモデルの精度を向上させることができる。
さらに,特徴空間における表現を効率的に正規化するために,双方向なメトリック学習を提案する。
具体的には、クリーンな画像が与えられたら、まず最も混乱したクラスに攻撃され、AEを前進させる。
最も紛らわしいクラスのクリーンなイメージがランダムに選択され、元のクラスにアタックされて、後方のAEを取得する。
次に、元の画像とそのAE間の表現距離を短くし、前方と後方のAE間を拡大するために三重項損失を用いる。
我々は,攻撃の異なる2つのデータセットに対して,広範囲な対向的ロバストネス実験を行う。
提案したAGKD-BMLモデルは最先端のアプローチよりも一貫して優れている。
AGKD-BMLのコードは以下の通りである。
関連論文リスト
- FACTUAL: A Novel Framework for Contrastive Learning Based Robust SAR Image Classification [10.911464455072391]
FACTUALは、逆行訓練と堅牢なSAR分類のためのコントラストラーニングフレームワークである。
本モデルでは, 洗浄試料の99.7%, 摂動試料の89.6%の精度が得られた。
論文 参考訳(メタデータ) (2024-04-04T06:20:22Z) - Inference Attacks Against Face Recognition Model without Classification
Layers [2.775761045299829]
顔認識(FR)は日常生活のほぼすべての側面に適用されているが、情報漏洩のリスクが常に伴っている。
本研究では,分類層を持たない実用FRモデルの2段階からなる新しい推論攻撃を提唱する。
論文 参考訳(メタデータ) (2024-01-24T09:51:03Z) - Defense Against Model Extraction Attacks on Recommender Systems [53.127820987326295]
本稿では、モデル抽出攻撃に対するリコメンデータシステムに対する防御のために、グラディエントベースのランキング最適化(GRO)を導入する。
GROは、攻撃者の代理モデルの損失を最大化しながら、保護対象モデルの損失を最小限にすることを目的としている。
その結果,モデル抽出攻撃に対するGROの防御効果は良好であった。
論文 参考訳(メタデータ) (2023-10-25T03:30:42Z) - Semantic Image Attack for Visual Model Diagnosis [80.36063332820568]
実際には、特定の列車およびテストデータセットに関する計量分析は、信頼性や公正なMLモデルを保証しない。
本稿では,セマンティック・イメージ・アタック(SIA)を提案する。
論文 参考訳(メタデータ) (2023-03-23T03:13:04Z) - Anomaly Detection via Multi-Scale Contrasted Memory [3.0170109896527086]
マルチスケールの標準プロトタイプをトレーニング中に記憶し,異常偏差値を計算する2段階の異常検出器を新たに導入する。
CIFAR-10の誤差相対改善率を最大35%とすることにより,多種多様なオブジェクト,スタイル,局所異常に対する最先端性能を高い精度で向上させる。
論文 参考訳(メタデータ) (2022-11-16T16:58:04Z) - Semi-Targeted Model Poisoning Attack on Federated Learning via Backward
Error Analysis [15.172954465350667]
フェデレートラーニング(FL)に対するモデル中毒は、エッジモデルを妥協することでシステム全体に侵入する。
本稿では,特徴空間に最適化された標的クラスを見出すことにより,アタック・ディスタンス・アウェア・アタック(ADA)の攻撃性を高めることを提案する。
ADAは攻撃頻度0.01の最も困難な場合において、攻撃性能を1.8倍に向上させることに成功した。
論文 参考訳(メタデータ) (2022-03-22T11:40:07Z) - Learning to Learn Transferable Attack [77.67399621530052]
転送逆行攻撃は非自明なブラックボックス逆行攻撃であり、サロゲートモデル上で敵の摂動を発生させ、そのような摂動を被害者モデルに適用することを目的としている。
本研究では,データとモデル拡張の両方から学習することで,敵の摂動をより一般化する学習可能な攻撃学習法(LLTA)を提案する。
提案手法の有効性を実証し, 現状の手法と比較して, 12.85%のトランスファー攻撃の成功率で検証した。
論文 参考訳(メタデータ) (2021-12-10T07:24:21Z) - Adversarial Attacks on Knowledge Graph Embeddings via Instance
Attribution Methods [8.793721044482613]
リンク予測のための知識グラフ埋め込み(KGE)モデルに対するデータ中毒攻撃について検討する。
これらの攻撃は、テスト時にモデル失敗を引き起こすために、トレーニング時に敵の追加や削除を行う。
本稿では,2つの実体のうちの1つを3つに置き換えて,逆加算を生成する手法を提案する。
論文 参考訳(メタデータ) (2021-11-04T19:38:48Z) - Two Sides of the Same Coin: White-box and Black-box Attacks for Transfer
Learning [60.784641458579124]
ホワイトボックスFGSM攻撃によるモデルロバスト性を効果的に向上することを示す。
また,移動学習モデルに対するブラックボックス攻撃手法を提案する。
ホワイトボックス攻撃とブラックボックス攻撃の双方の効果を系統的に評価するために,ソースモデルからターゲットモデルへの変換可能性の評価手法を提案する。
論文 参考訳(メタデータ) (2020-08-25T15:04:32Z) - Stylized Adversarial Defense [105.88250594033053]
逆行訓練は摂動パターンを生成し、モデルを堅牢化するためのトレーニングセットにそれらを含む。
我々は、より強力な敵を作るために、機能空間から追加情報を活用することを提案する。
我々の対人訓練アプローチは、最先端の防御と比べて強い堅牢性を示している。
論文 参考訳(メタデータ) (2020-07-29T08:38:10Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。