論文の概要: LiBRe: A Practical Bayesian Approach to Adversarial Detection
- arxiv url: http://arxiv.org/abs/2103.14835v1
- Date: Sat, 27 Mar 2021 07:48:58 GMT
- ステータス: 処理完了
- システム内更新日: 2021-04-03 13:12:30.298327
- Title: LiBRe: A Practical Bayesian Approach to Adversarial Detection
- Title(参考訳): LiBRe: 逆検出のための実践的ベイズ的アプローチ
- Authors: Zhijie Deng, Xiao Yang, Shizhen Xu, Hang Su, Jun Zhu
- Abstract要約: LiBReは、様々な訓練済みのタスク依存DNNに、異種敵対攻撃を低コストで防御する能力を与えることができる。
我々は,多層深層アンサンブル変奏法を構築し,LiBReの有効性と効率を高めるために,事前学習と微調整のワークフローを採用する。
- 参考スコア(独自算出の注目度): 36.541671795530625
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Despite their appealing flexibility, deep neural networks (DNNs) are
vulnerable against adversarial examples. Various adversarial defense strategies
have been proposed to resolve this problem, but they typically demonstrate
restricted practicability owing to unsurmountable compromise on universality,
effectiveness, or efficiency. In this work, we propose a more practical
approach, Lightweight Bayesian Refinement (LiBRe), in the spirit of leveraging
Bayesian neural networks (BNNs) for adversarial detection. Empowered by the
task and attack agnostic modeling under Bayes principle, LiBRe can endow a
variety of pre-trained task-dependent DNNs with the ability of defending
heterogeneous adversarial attacks at a low cost. We develop and integrate
advanced learning techniques to make LiBRe appropriate for adversarial
detection. Concretely, we build the few-layer deep ensemble variational and
adopt the pre-training & fine-tuning workflow to boost the effectiveness and
efficiency of LiBRe. We further provide a novel insight to realise adversarial
detection-oriented uncertainty quantification without inefficiently crafting
adversarial examples during training. Extensive empirical studies covering a
wide range of scenarios verify the practicability of LiBRe. We also conduct
thorough ablation studies to evidence the superiority of our modeling and
learning strategies.
- Abstract(参考訳): 魅力的な柔軟性にもかかわらず、ディープニューラルネットワーク(DNN)は敵の例に対して脆弱である。
この問題を解決するために様々な敵対的防衛戦略が提案されているが、それらは通常、普遍性、有効性、効率性に関する不可解な妥協のために制限された実用性を示している。
本研究では,bns(bayesian neural network)を敵検出に活用する目的で,より実用的な手法である軽量ベイズ改良法(libre)を提案する。
ベイズ原理に基づくタスクと攻撃非依存モデリングによって、LiBReは様々な訓練済みタスク依存のDNNを、不均一な敵攻撃を低コストで防御することができる。
We developed and integrated advanced learning technique to make LiBRe appropriate for adversarial detection。
具体的には,多層深層アンサンブルのバリエーションを構築し,LiBReの有効性と効率を高めるために,事前学習と微調整のワークフローを採用する。
さらに,逆検出指向の不確実性定量化を実現するための新たな洞察を提供する。
幅広いシナリオをカバーする大規模な実証研究は、LiBReの実用性を検証する。
モデリングと学習戦略の優位性を証明するために、徹底的なアブレーション研究も行っています。
関連論文リスト
- Adversarial Training Can Provably Improve Robustness: Theoretical Analysis of Feature Learning Process Under Structured Data [38.44734564565478]
本稿では, 特徴学習理論の観点から, 対角的例と対角的学習アルゴリズムの理論的理解を提供する。
本手法は,頑健な特徴学習を効果的に強化し,非ロバストな特徴学習を抑えることができることを示す。
論文 参考訳(メタデータ) (2024-10-11T03:59:49Z) - On Using Certified Training towards Empirical Robustness [40.582830117229854]
認定されたトレーニングアルゴリズムは、単一ステップ攻撃における壊滅的な過度なオーバーフィッティングを防ぐことができる。
また,ネットワークオーバー近似のための新たな正規化器を提案する。
論文 参考訳(メタデータ) (2024-10-02T14:56:21Z) - Unlearning Backdoor Threats: Enhancing Backdoor Defense in Multimodal Contrastive Learning via Local Token Unlearning [49.242828934501986]
マルチモーダルコントラスト学習は高品質な機能を構築するための強力なパラダイムとして登場した。
バックドア攻撃は 訓練中に モデルに 悪意ある行動を埋め込む
我々は,革新的なトークンベースの局所的忘れ忘れ学習システムを導入する。
論文 参考訳(メタデータ) (2024-03-24T18:33:15Z) - Enhancing Adversarial Training with Feature Separability [52.39305978984573]
本稿では,特徴分離性を備えた対人訓練(ATFS)により,クラス内特徴の類似性を向上し,クラス間特徴分散を増大させることができる,新たな対人訓練グラフ(ATG)を提案する。
包括的な実験を通じて、提案したATFSフレームワークがクリーンかつロバストなパフォーマンスを著しく改善することを示した。
論文 参考訳(メタデータ) (2022-05-02T04:04:23Z) - Model-Agnostic Meta-Attack: Towards Reliable Evaluation of Adversarial
Robustness [53.094682754683255]
モデル非依存型メタアタック(MAMA)アプローチにより,より強力な攻撃アルゴリズムを自動検出する。
本手法は、繰り返しニューラルネットワークによってパラメータ化された逆攻撃を学習する。
本研究では,未知の防御を攻撃した場合の学習能力を向上させるために,モデルに依存しない訓練アルゴリズムを開発した。
論文 参考訳(メタデータ) (2021-10-13T13:54:24Z) - Policy Smoothing for Provably Robust Reinforcement Learning [109.90239627115336]
入力のノルム有界対向摂動に対する強化学習の証明可能な堅牢性について検討する。
我々は、スムーズなポリシーによって得られる全報酬が、入力の摂動のノルムバウンドな逆数の下で一定の閾値以下に収まらないことを保証した証明書を生成する。
論文 参考訳(メタデータ) (2021-06-21T21:42:08Z) - Learning and Certification under Instance-targeted Poisoning [49.55596073963654]
インスタンスターゲット中毒攻撃におけるPAC学習性と認証について検討する。
敵の予算がサンプルの複雑さに比例してスケールすると、PACの学習性と認定が達成可能であることを示す。
実データセット上でのK近傍, ロジスティック回帰, 多層パーセプトロン, 畳み込みニューラルネットワークの堅牢性を実証的に検討する。
論文 参考訳(メタデータ) (2021-05-18T17:48:15Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。