論文の概要: Common Knowledge Learning for Generating Transferable Adversarial
Examples
- arxiv url: http://arxiv.org/abs/2307.00274v1
- Date: Sat, 1 Jul 2023 09:07:12 GMT
- ステータス: 処理完了
- システム内更新日: 2023-07-05 17:04:17.468150
- Title: Common Knowledge Learning for Generating Transferable Adversarial
Examples
- Title(参考訳): 転置可能な実例生成のための共通知識学習
- Authors: Ruijie Yang, Yuanfang Guo, Junfu Wang, Jiantao Zhou and Yunhong Wang
- Abstract要約: 本稿では,代用(ソース)モデルにより敵のサンプルを生成するブラックボックス攻撃の重要タイプに着目した。
既存の手法では、ソースモデルとターゲットモデルが異なるタイプのDNNアーキテクチャのものである場合、不満足な逆転が生じる傾向にある。
本稿では,より優れたネットワーク重みを学習し,敵対的な例を生成するための共通知識学習(CKL)フレームワークを提案する。
- 参考スコア(独自算出の注目度): 60.1287733223249
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: This paper focuses on an important type of black-box attacks, i.e.,
transfer-based adversarial attacks, where the adversary generates adversarial
examples by a substitute (source) model and utilize them to attack an unseen
target model, without knowing its information. Existing methods tend to give
unsatisfactory adversarial transferability when the source and target models
are from different types of DNN architectures (e.g. ResNet-18 and Swin
Transformer). In this paper, we observe that the above phenomenon is induced by
the output inconsistency problem. To alleviate this problem while effectively
utilizing the existing DNN models, we propose a common knowledge learning (CKL)
framework to learn better network weights to generate adversarial examples with
better transferability, under fixed network architectures. Specifically, to
reduce the model-specific features and obtain better output distributions, we
construct a multi-teacher framework, where the knowledge is distilled from
different teacher architectures into one student network. By considering that
the gradient of input is usually utilized to generated adversarial examples, we
impose constraints on the gradients between the student and teacher models, to
further alleviate the output inconsistency problem and enhance the adversarial
transferability. Extensive experiments demonstrate that our proposed work can
significantly improve the adversarial transferability.
- Abstract(参考訳): 本稿では,代用(ソース)モデルを用いて敵のサンプルを生成し,その情報を知らずに標的モデルの攻撃に利用する,移動型敵攻撃(transfer-based adversarial attack)という重要なタイプのブラックボックス攻撃に焦点を当てる。
既存の手法では、ソースモデルとターゲットモデルが異なるタイプのDNNアーキテクチャ(ResNet-18やSwin Transformerなど)のものである場合、不満足な逆転が生じる傾向がある。
本稿では,上記の現象が出力不整合問題によって引き起こされるのを観察する。
既存のDNNモデルを効果的に活用しながらこの問題を軽減するために,ネットワークの重み付けを改善するための共通知識学習(CKL)フレームワークを提案する。
具体的には, モデル固有の特徴を低減し, より良い出力分布を得るために, 異なる教師アーキテクチャから1つの学生ネットワークへ知識を蒸留するマルチ教師フレームワークを構築した。
入力の勾配は、通常、生成した対向例に利用されることを考慮し、生徒と教師モデルの勾配に制約を課し、出力の不一致問題を緩和し、対向伝達可能性を高める。
広範な実験により,提案手法が逆移動性を大幅に改善できることが証明された。
関連論文リスト
- MOREL: Enhancing Adversarial Robustness through Multi-Objective Representation Learning [1.534667887016089]
ディープニューラルネットワーク(DNN)は、わずかに敵対的な摂動に対して脆弱である。
トレーニング中の強力な特徴表現学習は、元のモデルの堅牢性を大幅に向上させることができることを示す。
本稿では,多目的特徴表現学習手法であるMORELを提案する。
論文 参考訳(メタデータ) (2024-10-02T16:05:03Z) - Prompt-Driven Contrastive Learning for Transferable Adversarial Attacks [42.18755809782401]
PDCL-Attackと呼ばれる新しいトランスファー攻撃法を提案する。
テキストのセマンティック表現力を利用して効果的なプロンプト駆動型特徴ガイダンスを定式化する。
論文 参考訳(メタデータ) (2024-07-30T08:52:16Z) - A Survey on Transferability of Adversarial Examples across Deep Neural Networks [53.04734042366312]
逆の例では、機械学習モデルを操作して誤った予測を行うことができます。
敵の例の転送可能性により、ターゲットモデルの詳細な知識を回避できるブラックボックス攻撃が可能となる。
本研究は, 対角移動可能性の展望を考察した。
論文 参考訳(メタデータ) (2023-10-26T17:45:26Z) - CT-GAT: Cross-Task Generative Adversarial Attack based on
Transferability [24.272384832200522]
本稿では,様々なタスクにまたがる伝達可能な特徴を抽出して,直接対逆例を構築する手法を提案する。
具体的には,複数のタスクから収集した対数サンプルデータを用いて,CT-GATというシーケンス対シーケンス生成モデルを訓練し,普遍的対数特徴を得る。
その結果,本手法は低コストで優れた攻撃性能を達成できることが判明した。
論文 参考訳(メタデータ) (2023-10-22T11:00:04Z) - Why Does Little Robustness Help? Understanding and Improving Adversarial
Transferability from Surrogate Training [24.376314203167016]
DNNの逆例(AE)は転送可能であることが示されている。
本稿では,敵対的伝達可能性の理解に向けてさらなる一歩を踏み出す。
論文 参考訳(メタデータ) (2023-07-15T19:20:49Z) - Enhancing Multiple Reliability Measures via Nuisance-extended
Information Bottleneck [77.37409441129995]
トレーニングデータに制限がある現実的なシナリオでは、データ内の多くの予測信号は、データ取得のバイアスからより多く得る。
我々は,相互情報制約の下で,より広い範囲の摂動をカバーできる敵の脅威モデルを考える。
そこで本研究では,その目的を実現するためのオートエンコーダベーストレーニングと,提案したハイブリッド識別世代学習を促進するための実用的なエンコーダ設計を提案する。
論文 参考訳(メタデータ) (2023-03-24T16:03:21Z) - Two Sides of the Same Coin: White-box and Black-box Attacks for Transfer
Learning [60.784641458579124]
ホワイトボックスFGSM攻撃によるモデルロバスト性を効果的に向上することを示す。
また,移動学習モデルに対するブラックボックス攻撃手法を提案する。
ホワイトボックス攻撃とブラックボックス攻撃の双方の効果を系統的に評価するために,ソースモデルからターゲットモデルへの変換可能性の評価手法を提案する。
論文 参考訳(メタデータ) (2020-08-25T15:04:32Z) - TREND: Transferability based Robust ENsemble Design [6.663641564969944]
本稿では, ネットワークアーキテクチャ, 入力, 重量, アクティベーションの量子化が, 対向サンプルの転送性に及ぼす影響について検討する。
本研究では,ソースとターゲット間の入力量子化によってトランスファービリティが著しく阻害されていることを示す。
我々は、これに対抗するために、新しい最先端のアンサンブル攻撃を提案する。
論文 参考訳(メタデータ) (2020-08-04T13:38:14Z) - Stylized Adversarial Defense [105.88250594033053]
逆行訓練は摂動パターンを生成し、モデルを堅牢化するためのトレーニングセットにそれらを含む。
我々は、より強力な敵を作るために、機能空間から追加情報を活用することを提案する。
我々の対人訓練アプローチは、最先端の防御と比べて強い堅牢性を示している。
論文 参考訳(メタデータ) (2020-07-29T08:38:10Z) - Transferable Perturbations of Deep Feature Distributions [102.94094966908916]
本研究は,クラスワイドおよび層ワイドな特徴分布のモデリングと利用に基づく新たな敵攻撃を提案する。
我々は、未定義の画像ネットモデルに対して、最先端のブラックボックス転送に基づく攻撃結果を得る。
論文 参考訳(メタデータ) (2020-04-27T00:32:25Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。