論文の概要: Two Sides of the Same Coin: White-box and Black-box Attacks for Transfer
Learning
- arxiv url: http://arxiv.org/abs/2008.11089v1
- Date: Tue, 25 Aug 2020 15:04:32 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-25 03:17:29.233167
- Title: Two Sides of the Same Coin: White-box and Black-box Attacks for Transfer
Learning
- Title(参考訳): 同じコインの2つの側面:移行学習のためのホワイトボックスとブラックボックスアタック
- Authors: Yinghua Zhang, Yangqiu Song, Jian Liang, Kun Bai, Qiang Yang
- Abstract要約: ホワイトボックスFGSM攻撃によるモデルロバスト性を効果的に向上することを示す。
また,移動学習モデルに対するブラックボックス攻撃手法を提案する。
ホワイトボックス攻撃とブラックボックス攻撃の双方の効果を系統的に評価するために,ソースモデルからターゲットモデルへの変換可能性の評価手法を提案する。
- 参考スコア(独自算出の注目度): 60.784641458579124
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Transfer learning has become a common practice for training deep learning
models with limited labeled data in a target domain. On the other hand, deep
models are vulnerable to adversarial attacks. Though transfer learning has been
widely applied, its effect on model robustness is unclear. To figure out this
problem, we conduct extensive empirical evaluations to show that fine-tuning
effectively enhances model robustness under white-box FGSM attacks. We also
propose a black-box attack method for transfer learning models which attacks
the target model with the adversarial examples produced by its source model. To
systematically measure the effect of both white-box and black-box attacks, we
propose a new metric to evaluate how transferable are the adversarial examples
produced by a source model to a target model. Empirical results show that the
adversarial examples are more transferable when fine-tuning is used than they
are when the two networks are trained independently.
- Abstract(参考訳): 転送学習は、ターゲットドメイン内のラベル付きデータに制限のあるディープラーニングモデルをトレーニングする一般的なプラクティスとなっている。
一方、深層モデルは敵の攻撃に対して脆弱である。
転送学習は広く適用されているが、モデルロバスト性への影響は明らかではない。
この問題を解決するために、我々は、ホワイトボックスFGSM攻撃によるモデルロバスト性を効果的に向上することを示す実験的な評価を行った。
また,対象モデルに対して,そのソースモデルが生成する逆例を用いて攻撃を行う,転送学習モデルに対するブラックボックス攻撃法を提案する。
ホワイトボックス攻撃とブラックボックス攻撃の双方の効果を系統的に評価するために,ソースモデルからターゲットモデルへの変換可能性の評価手法を提案する。
実験の結果,2つのネットワークが独立にトレーニングされた場合よりも,微調整を行った場合の逆例の方が伝達しやすいことがわかった。
関連論文リスト
- Scaling Laws for Black box Adversarial Attacks [37.744814957775965]
敵の例では、クロスモデル転送可能性を示し、ブラックボックスモデルを攻撃することができる。
モデルアンサンブルは、複数のサロゲートモデルを同時に攻撃することで、転送可能性を改善する効果的な戦略である。
スケールされた攻撃はセマンティクスにおいてより良い解釈可能性をもたらし、モデルの共通の特徴がキャプチャーされることを示す。
論文 参考訳(メタデータ) (2024-11-25T08:14:37Z) - Scalable Membership Inference Attacks via Quantile Regression [35.33158339354343]
メンバーシップ推論攻撃は、トレーニングで特定の例が使用されたかどうかに関わらず、トレーニングされたモデルへのブラックボックスアクセスを使用して決定するように設計されている。
本稿では,トレーニングに使用されていない点に対する攻撃下でモデルによって誘導される信頼度スコアの分布に基づいて,量子回帰に基づく新たな攻撃方法を提案する。
論文 参考訳(メタデータ) (2023-07-07T16:07:00Z) - Rethinking Model Ensemble in Transfer-based Adversarial Attacks [46.82830479910875]
転送可能性を改善する効果的な戦略は、モデルのアンサンブルを攻撃することである。
これまでの作業は、単に異なるモデルの出力を平均化するだけであった。
我々は、より移動可能な敵の例を生成するために、CWA(Common Weakness Attack)を提案する。
論文 参考訳(メタデータ) (2023-03-16T06:37:16Z) - Model Inversion Attack against Transfer Learning: Inverting a Model
without Accessing It [41.39995986856193]
トランスファーラーニングは、事前訓練された教師モデルを生成する重要なアプローチである。
転送学習に関する最近の研究により、様々な攻撃に対して脆弱であることが判明した。
モデル反転攻撃に対してトランスファーラーニングが脆弱であるかどうかはまだ不明である。
論文 参考訳(メタデータ) (2022-03-13T05:07:02Z) - Learning to Learn Transferable Attack [77.67399621530052]
転送逆行攻撃は非自明なブラックボックス逆行攻撃であり、サロゲートモデル上で敵の摂動を発生させ、そのような摂動を被害者モデルに適用することを目的としている。
本研究では,データとモデル拡張の両方から学習することで,敵の摂動をより一般化する学習可能な攻撃学習法(LLTA)を提案する。
提案手法の有効性を実証し, 現状の手法と比較して, 12.85%のトランスファー攻撃の成功率で検証した。
論文 参考訳(メタデータ) (2021-12-10T07:24:21Z) - Delving into Data: Effectively Substitute Training for Black-box Attack [84.85798059317963]
本稿では,知識盗むプロセスで使用されるデータの分散設計に焦点をあてた,新しい視点代替トレーニングを提案する。
これら2つのモジュールの組み合わせにより、代替モデルとターゲットモデルの一貫性がさらに向上し、敵攻撃の有効性が大幅に向上する。
論文 参考訳(メタデータ) (2021-04-26T07:26:29Z) - Learning to Attack: Towards Textual Adversarial Attacking in Real-world
Situations [81.82518920087175]
敵攻撃は、敵の例でディープニューラルネットワークを騙すことを目的としている。
本稿では、攻撃履歴から学習し、より効率的に攻撃を開始することができる強化学習に基づく攻撃モデルを提案する。
論文 参考訳(メタデータ) (2020-09-19T09:12:24Z) - Adversarial Imitation Attack [63.76805962712481]
現実的な敵攻撃は、攻撃されたモデルの知識をできるだけ少なくする必要がある。
現在の代替攻撃では、敵の例を生成するために事前訓練されたモデルが必要である。
本研究では,新たな敵模倣攻撃を提案する。
論文 参考訳(メタデータ) (2020-03-28T10:02:49Z) - Data-Free Adversarial Perturbations for Practical Black-Box Attack [25.44755251319056]
本研究では, 学習データ分布の知識を必要とせずに, 対象モデルを騙し, 対向的摂動を創り出すためのデータフリー手法を提案する。
提案手法は,攻撃者が訓練データにアクセスできない場合でも,現在のディープラーニングモデルが依然として危険であることを実証的に示す。
論文 参考訳(メタデータ) (2020-03-03T02:22:12Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。