論文の概要: Towards Evaluating the Robustness of Neural Networks Learned by
Transduction
- arxiv url: http://arxiv.org/abs/2110.14735v1
- Date: Wed, 27 Oct 2021 19:39:50 GMT
- ステータス: 処理完了
- システム内更新日: 2021-10-29 15:42:06.344616
- Title: Towards Evaluating the Robustness of Neural Networks Learned by
Transduction
- Title(参考訳): トランスダクションによるニューラルネットワークのロバスト性評価に向けて
- Authors: Jiefeng Chen, Xi Wu, Yang Guo, Yingyu Liang, Somesh Jha
- Abstract要約: Greedy Model Space Attack (GMSA)は、トランスダクティブ学習に基づく防御を評価するための新しいベースラインとして機能する攻撃フレームワークである。
GMSAは, 弱いインスタンス化であっても, 従来のトランスダクティブ・ラーニングに基づく防御を破ることができることを示す。
- 参考スコア(独自算出の注目度): 44.189248766285345
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: There has been emerging interest in using transductive learning for
adversarial robustness (Goldwasser et al., NeurIPS 2020; Wu et al., ICML 2020;
Wang et al., ArXiv 2021). Compared to traditional defenses, these defense
mechanisms "dynamically learn" the model based on test-time input; and
theoretically, attacking these defenses reduces to solving a bilevel
optimization problem, which poses difficulty in crafting adaptive attacks. In
this paper, we examine these defense mechanisms from a principled threat
analysis perspective. We formulate and analyze threat models for
transductive-learning based defenses, and point out important subtleties. We
propose the principle of attacking model space for solving bilevel attack
objectives, and present Greedy Model Space Attack (GMSA), an attack framework
that can serve as a new baseline for evaluating transductive-learning based
defenses. Through systematic evaluation, we show that GMSA, even with weak
instantiations, can break previous transductive-learning based defenses, which
were resilient to previous attacks, such as AutoAttack (Croce and Hein, ICML
2020). On the positive side, we report a somewhat surprising empirical result
of "transductive adversarial training": Adversarially retraining the model
using fresh randomness at the test time gives a significant increase in
robustness against attacks we consider.
- Abstract(参考訳): 対向的堅牢性のためのトランスダクティブ学習(Goldwasser et al., NeurIPS 2020, Wu et al., ICML 2020, Wang et al., ArXiv 2021)への関心が高まっている。
従来の防御機構と比較して、これらの防御機構はテスト時間入力に基づいてモデルを「動的に学習」し、理論的には、これらの防御を攻撃することで二段階最適化の問題が解決される。
本稿では,これらの防御機構を原理的脅威分析の観点から検討する。
我々は、トランスダクティブ学習に基づく防御のための脅威モデルを定式化し分析し、重要な微妙さを指摘する。
本稿では,二段階攻撃目標を解決するためのモデル空間攻撃の原理と,トランスダクティブ・ラーニングに基づく防御を評価するための新たなベースラインとなる攻撃フレームワークであるgreedy model space attack(gmsa)を提案する。
系統的評価により, GMSAは, 弱いインスタンス化であっても, AutoAttack (Croce and Hein, ICML 2020) など, 過去の攻撃に対して耐性のある, 従来のトランスダクティブ・ラーニング・ベース・ディフェンスを破ることができることを示した。
テスト時に新しいランダム性を用いてモデルを再トレーニングすることで、私たちが検討する攻撃に対するロバスト性が大幅に向上します。
関連論文リスト
- Taking off the Rose-Tinted Glasses: A Critical Look at Adversarial ML Through the Lens of Evasion Attacks [11.830908033835728]
我々は、過度に寛容な攻撃と過度に制限された防衛脅威モデルが、MLドメインにおける防衛開発を妨げていると主張している。
我々は、AIの観点からではなく、システムセキュリティの観点から、敵対的機械学習を分析する。
論文 参考訳(メタデータ) (2024-10-15T21:33:23Z) - Robust Image Classification: Defensive Strategies against FGSM and PGD Adversarial Attacks [0.0]
敵対的攻撃は、画像分類におけるディープラーニングモデルの堅牢性に重大な脅威をもたらす。
本稿では,ニューラルネットワークのレジリエンスを高めるために,これらの攻撃に対する防御機構を探索し,洗練する。
論文 参考訳(メタデータ) (2024-08-20T02:00:02Z) - Adversarial Attacks and Defenses in Machine Learning-Powered Networks: A
Contemporary Survey [114.17568992164303]
機械学習とディープニューラルネットワークにおけるアドリアックと防御が注目されている。
本調査は、敵攻撃・防衛技術分野における最近の進歩を包括的に概観する。
検索ベース、意思決定ベース、ドロップベース、物理世界攻撃など、新たな攻撃方法も検討されている。
論文 参考訳(メタデータ) (2023-03-11T04:19:31Z) - The Space of Adversarial Strategies [6.295859509997257]
機械学習モデルにおける最悪のケース動作を誘発するインプットである逆例は、過去10年間に広く研究されてきた。
最悪の場合(すなわち最適な)敵を特徴づける体系的なアプローチを提案する。
論文 参考訳(メタデータ) (2022-09-09T20:53:11Z) - Can Adversarial Training Be Manipulated By Non-Robust Features? [64.73107315313251]
もともとテストタイムの敵の例に抵抗するために設計された対人訓練は、トレーニング時間アベイラビリティーアタックの緩和に有望であることが示されている。
我々は、トレーニングデータをわずかに摂動させることで、堅牢な可用性を阻害することを目的とした、安定性攻撃と呼ばれる新しい脅威モデルを特定する。
この脅威の下では、従来の防衛予算$epsilon$による敵の訓練が、単純な統計的条件下でテストロバスト性を提供するのに確実に失敗することを発見した。
論文 参考訳(メタデータ) (2022-01-31T16:25:25Z) - Fixed Points in Cyber Space: Rethinking Optimal Evasion Attacks in the
Age of AI-NIDS [70.60975663021952]
ネットワーク分類器に対するブラックボックス攻撃について検討する。
我々は、アタッカー・ディフェンダーの固定点がそれ自体、複雑な位相遷移を持つ一般サムゲームであると主張する。
攻撃防御力学の研究には連続的な学習手法が必要であることを示す。
論文 参考訳(メタデータ) (2021-11-23T23:42:16Z) - Model-Agnostic Meta-Attack: Towards Reliable Evaluation of Adversarial
Robustness [53.094682754683255]
モデル非依存型メタアタック(MAMA)アプローチにより,より強力な攻撃アルゴリズムを自動検出する。
本手法は、繰り返しニューラルネットワークによってパラメータ化された逆攻撃を学習する。
本研究では,未知の防御を攻撃した場合の学習能力を向上させるために,モデルに依存しない訓練アルゴリズムを開発した。
論文 参考訳(メタデータ) (2021-10-13T13:54:24Z) - Towards Adversarial Robustness via Transductive Learning [41.47295098415148]
対向的堅牢性にトランスダクティブラーニングを使うことへの関心が高まっている。
まず、トランスダクティブロバストネスのモデリング側面を定式化し分析する。
本稿では,トランスダクティブ・ラーニングの有用性を裏付ける理論的,実証的な証拠を新たに提示する。
論文 参考訳(メタデータ) (2021-06-15T19:32:12Z) - Adversarial vs behavioural-based defensive AI with joint, continual and
active learning: automated evaluation of robustness to deception, poisoning
and concept drift [62.997667081978825]
人工知能(AI)の最近の進歩は、サイバーセキュリティのための行動分析(UEBA)に新たな能力をもたらした。
本稿では、検出プロセスを改善し、人間の専門知識を効果的に活用することにより、この攻撃を効果的に軽減するソリューションを提案する。
論文 参考訳(メタデータ) (2020-01-13T13:54:36Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。