論文の概要: Towards Adversarial Robustness via Transductive Learning
- arxiv url: http://arxiv.org/abs/2106.08387v1
- Date: Tue, 15 Jun 2021 19:32:12 GMT
- ステータス: 処理完了
- システム内更新日: 2021-06-17 17:12:01.591681
- Title: Towards Adversarial Robustness via Transductive Learning
- Title(参考訳): トランスダクティブラーニングによる対人ロバストネスを目指して
- Authors: Jiefeng Chen, Yang Guo, Xi Wu, Tianqi Li, Qicheng Lao, Yingyu Liang,
Somesh Jha
- Abstract要約: 対向的堅牢性にトランスダクティブラーニングを使うことへの関心が高まっている。
まず、トランスダクティブロバストネスのモデリング側面を定式化し分析する。
本稿では,トランスダクティブ・ラーニングの有用性を裏付ける理論的,実証的な証拠を新たに提示する。
- 参考スコア(独自算出の注目度): 41.47295098415148
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: There has been emerging interest to use transductive learning for adversarial
robustness (Goldwasser et al., NeurIPS 2020; Wu et al., ICML 2020). Compared to
traditional "test-time" defenses, these defense mechanisms "dynamically
retrain" the model based on test time input via transductive learning; and
theoretically, attacking these defenses boils down to bilevel optimization,
which seems to raise the difficulty for adaptive attacks. In this paper, we
first formalize and analyze modeling aspects of transductive robustness. Then,
we propose the principle of attacking model space for solving bilevel attack
objectives, and present an instantiation of the principle which breaks previous
transductive defenses. These attacks thus point to significant difficulties in
the use of transductive learning to improve adversarial robustness. To this
end, we present new theoretical and empirical evidence in support of the
utility of transductive learning.
- Abstract(参考訳): 対向的堅牢性(Goldwasser et al., NeurIPS 2020; Wu et al., ICML 2020)にトランスダクティブラーニングを使うことへの関心が高まっている。
従来の「テストタイム」ディフェンスと比較すると、これらの防御メカニズムは、トランスダクティブラーニングによるテストタイムインプットに基づくモデルを「動的に再トレーニング」し、理論的には、これらのディフェンスを攻撃することは二段階の最適化につながり、適応攻撃の難しさを増すと考えられる。
本稿では,まずトランスダクティブロバストネスのモデリング側面を形式化し,解析する。
次に,二段階攻撃目標を解決するためのモデル空間攻撃の原理を提案し,先行するトランスダクティブ防御を破る原理のインスタンス化を提案する。
これらの攻撃は、対向的堅牢性を改善するためにトランスダクティブラーニングを使用することにおいて重大な困難を示唆している。
そこで本研究では,トランスダクティブ・ラーニングの有用性を裏付ける新たな理論的,実証的な証拠を提案する。
関連論文リスト
- Towards Deep Learning Models Resistant to Transfer-based Adversarial
Attacks via Data-centric Robust Learning [16.53553150596255]
敵の訓練(AT)は、ホワイトボックス攻撃に対する最強の防御として認められている。
我々はこの新しい防衛パラダイムをデータ中心ロバスト学習(DRL)と呼ぶ。
論文 参考訳(メタデータ) (2023-10-15T17:20:42Z) - Robust Spatiotemporal Traffic Forecasting with Reinforced Dynamic
Adversarial Training [13.998123723601651]
機械学習に基づく予測モデルは、Intelligent Transportation Systems(ITS)において、トラフィックパターンを予測するために一般的に使用されている。
既存のモデルのほとんどは敵攻撃の影響を受けやすいため、不正確な予測や、混雑や遅延などの負の結果につながる可能性がある。
交通予測タスクに敵対的トレーニングを組み込むための枠組みを提案する。
論文 参考訳(メタデータ) (2023-06-25T04:53:29Z) - Adversarial Attacks and Defenses in Machine Learning-Powered Networks: A
Contemporary Survey [114.17568992164303]
機械学習とディープニューラルネットワークにおけるアドリアックと防御が注目されている。
本調査は、敵攻撃・防衛技術分野における最近の進歩を包括的に概観する。
検索ベース、意思決定ベース、ドロップベース、物理世界攻撃など、新たな攻撃方法も検討されている。
論文 参考訳(メタデータ) (2023-03-11T04:19:31Z) - Resisting Deep Learning Models Against Adversarial Attack
Transferability via Feature Randomization [17.756085566366167]
本研究では,ディープラーニングモデルを対象とした8つの敵攻撃に抵抗する特徴ランダム化に基づく手法を提案する。
本手法は,標的ネットワークを確保でき,敵の攻撃伝達可能性に対して60%以上抵抗することができる。
論文 参考訳(メタデータ) (2022-09-11T20:14:12Z) - Can Adversarial Training Be Manipulated By Non-Robust Features? [64.73107315313251]
もともとテストタイムの敵の例に抵抗するために設計された対人訓練は、トレーニング時間アベイラビリティーアタックの緩和に有望であることが示されている。
我々は、トレーニングデータをわずかに摂動させることで、堅牢な可用性を阻害することを目的とした、安定性攻撃と呼ばれる新しい脅威モデルを特定する。
この脅威の下では、従来の防衛予算$epsilon$による敵の訓練が、単純な統計的条件下でテストロバスト性を提供するのに確実に失敗することを発見した。
論文 参考訳(メタデータ) (2022-01-31T16:25:25Z) - Towards Evaluating the Robustness of Neural Networks Learned by
Transduction [44.189248766285345]
Greedy Model Space Attack (GMSA)は、トランスダクティブ学習に基づく防御を評価するための新しいベースラインとして機能する攻撃フレームワークである。
GMSAは, 弱いインスタンス化であっても, 従来のトランスダクティブ・ラーニングに基づく防御を破ることができることを示す。
論文 参考訳(メタデータ) (2021-10-27T19:39:50Z) - Model-Agnostic Meta-Attack: Towards Reliable Evaluation of Adversarial
Robustness [53.094682754683255]
モデル非依存型メタアタック(MAMA)アプローチにより,より強力な攻撃アルゴリズムを自動検出する。
本手法は、繰り返しニューラルネットワークによってパラメータ化された逆攻撃を学習する。
本研究では,未知の防御を攻撃した場合の学習能力を向上させるために,モデルに依存しない訓練アルゴリズムを開発した。
論文 参考訳(メタデータ) (2021-10-13T13:54:24Z) - Adversarial vs behavioural-based defensive AI with joint, continual and
active learning: automated evaluation of robustness to deception, poisoning
and concept drift [62.997667081978825]
人工知能(AI)の最近の進歩は、サイバーセキュリティのための行動分析(UEBA)に新たな能力をもたらした。
本稿では、検出プロセスを改善し、人間の専門知識を効果的に活用することにより、この攻撃を効果的に軽減するソリューションを提案する。
論文 参考訳(メタデータ) (2020-01-13T13:54:36Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。