論文の概要: RAB: Provable Robustness Against Backdoor Attacks
- arxiv url: http://arxiv.org/abs/2003.08904v8
- Date: Thu, 3 Aug 2023 14:59:19 GMT
- ステータス: 処理完了
- システム内更新日: 2023-08-04 17:50:37.016473
- Title: RAB: Provable Robustness Against Backdoor Attacks
- Title(参考訳): RAB: バックドア攻撃に対するロバスト性
- Authors: Maurice Weber, Xiaojun Xu, Bojan Karla\v{s}, Ce Zhang, Bo Li
- Abstract要約: 我々は、一般的な脅威モデル、特にバックドアアタックに対して、機械学習モデルの堅牢性を証明することに重点を置いている。
トレーニングモデルをスムースにし,バックドア攻撃に対する堅牢性を証明するための,最初の堅牢なトレーニングプロセスであるRABを提案する。
我々は、さまざまな機械学習(ML)モデルに対する包括的な実験を行い、バックドア攻撃に対する信頼性の高い堅牢性を示す最初のベンチマークを提供する。
- 参考スコア(独自算出の注目度): 20.702977915926787
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Recent studies have shown that deep neural networks (DNNs) are vulnerable to
adversarial attacks, including evasion and backdoor (poisoning) attacks. On the
defense side, there have been intensive efforts on improving both empirical and
provable robustness against evasion attacks; however, the provable robustness
against backdoor attacks still remains largely unexplored. In this paper, we
focus on certifying the machine learning model robustness against general
threat models, especially backdoor attacks. We first provide a unified
framework via randomized smoothing techniques and show how it can be
instantiated to certify the robustness against both evasion and backdoor
attacks. We then propose the first robust training process, RAB, to smooth the
trained model and certify its robustness against backdoor attacks. We prove the
robustness bound for machine learning models trained with RAB and prove that
our robustness bound is tight. In addition, we theoretically show that it is
possible to train the robust smoothed models efficiently for simple models such
as K-nearest neighbor classifiers, and we propose an exact smooth-training
algorithm that eliminates the need to sample from a noise distribution for such
models. Empirically, we conduct comprehensive experiments for different machine
learning (ML) models such as DNNs, support vector machines, and K-NN models on
MNIST, CIFAR-10, and ImageNette datasets and provide the first benchmark for
certified robustness against backdoor attacks. In addition, we evaluate K-NN
models on a spambase tabular dataset to demonstrate the advantages of the
proposed exact algorithm. Both the theoretic analysis and the comprehensive
evaluation on diverse ML models and datasets shed light on further robust
learning strategies against general training time attacks.
- Abstract(参考訳): 近年の研究では、ディープニューラルネットワーク(DNN)は、回避やバックドア(中毒)攻撃を含む敵の攻撃に弱いことが示されている。
防衛面では、回避攻撃に対する経験的かつ証明可能なロバスト性の向上に力を入れてきたが、バックドア攻撃に対する証明可能なロバスト性は依然としてほとんど解明されていない。
本稿では,一般的な脅威モデル,特にバックドア攻撃に対する機械学習モデルの堅牢性を検証することに焦点を当てる。
まず,ランダム化平滑化手法による統一フレームワークを提供し,回避とバックドア攻撃の両方に対するロバスト性を確認するためのインスタンス化方法を示す。
次に,最初のロバストなトレーニングプロセスであるrabを提案し,トレーニングモデルを円滑にし,バックドア攻撃に対するロバスト性を確認する。
我々は、RABでトレーニングされた機械学習モデルのロバスト性バウンドを証明し、ロバスト性バウンドが厳密であることを証明する。
さらに,K-アネレス近傍分類器などの単純なモデルに対して,ロバストな滑らかなモデルを効率的に訓練できることを理論的に示し,そのようなモデルに対する雑音分布からサンプルを除去するスムーズな学習アルゴリズムを提案する。
実験では,MNIST,CIFAR-10,ImageNetteデータセット上で,DNN,サポートベクタマシン,K-NNモデルなどの機械学習(ML)モデルの総合的な実験を行い,バックドア攻撃に対するロバスト性を示す最初のベンチマークを提供する。
さらに,提案アルゴリズムの利点を示すために,スパムベース表付きデータセットを用いたK-NNモデルの評価を行った。
さまざまなMLモデルとデータセットに関する理論分析と包括的な評価の両方が、一般的なトレーニング時間攻撃に対するさらなる堅牢な学習戦略に光を当てた。
関連論文リスト
- Unlearning Backdoor Threats: Enhancing Backdoor Defense in Multimodal Contrastive Learning via Local Token Unlearning [49.242828934501986]
マルチモーダルコントラスト学習は高品質な機能を構築するための強力なパラダイムとして登場した。
バックドア攻撃は 訓練中に モデルに 悪意ある行動を埋め込む
我々は,革新的なトークンベースの局所的忘れ忘れ学習システムを導入する。
論文 参考訳(メタデータ) (2024-03-24T18:33:15Z) - Robust Models are less Over-Confident [10.42820615166362]
敵の訓練(AT)は、このような攻撃に対して堅牢性を達成することを目的としている。
我々は、高い堅牢な精度を達成するために、様々な敵に訓練されたモデルを経験的に分析する。
ATには興味深い副作用がある。それは、彼らの決定に非常に自信の持たないモデルに繋がる。
論文 参考訳(メタデータ) (2022-10-12T06:14:55Z) - RIBAC: Towards Robust and Imperceptible Backdoor Attack against Compact
DNN [28.94653593443991]
近年のバックドア攻撃は、ディープニューラルネットワーク(DNN)モデルのセキュリティに対する新たな脅威となっている。
本稿では,コンパクトDNNモデル(RIBAC)に対するロバストおよび非受容性バックドアアタックの研究と開発について述べる。
論文 参考訳(メタデータ) (2022-08-22T21:27:09Z) - Careful What You Wish For: on the Extraction of Adversarially Trained
Models [2.707154152696381]
最近の機械学習(ML)モデルに対する攻撃は、いくつかのセキュリティとプライバシの脅威を引き起こす。
本稿では,敵の学習したモデルに対する抽出攻撃を評価する枠組みを提案する。
本研究では, 自然学習環境下で得られたモデルよりも, 敵の訓練を受けたモデルの方が抽出攻撃に対して脆弱であることを示す。
論文 参考訳(メタデータ) (2022-07-21T16:04:37Z) - Model-Agnostic Meta-Attack: Towards Reliable Evaluation of Adversarial
Robustness [53.094682754683255]
モデル非依存型メタアタック(MAMA)アプローチにより,より強力な攻撃アルゴリズムを自動検出する。
本手法は、繰り返しニューラルネットワークによってパラメータ化された逆攻撃を学習する。
本研究では,未知の防御を攻撃した場合の学習能力を向上させるために,モデルに依存しない訓練アルゴリズムを開発した。
論文 参考訳(メタデータ) (2021-10-13T13:54:24Z) - Policy Smoothing for Provably Robust Reinforcement Learning [109.90239627115336]
入力のノルム有界対向摂動に対する強化学習の証明可能な堅牢性について検討する。
我々は、スムーズなポリシーによって得られる全報酬が、入力の摂動のノルムバウンドな逆数の下で一定の閾値以下に収まらないことを保証した証明書を生成する。
論文 参考訳(メタデータ) (2021-06-21T21:42:08Z) - CRFL: Certifiably Robust Federated Learning against Backdoor Attacks [59.61565692464579]
本稿では,第1の汎用フレームワークであるCertifiably Robust Federated Learning (CRFL) を用いて,バックドアに対する堅牢なFLモデルをトレーニングする。
提案手法は, モデルパラメータのクリッピングと平滑化を利用して大域的モデル平滑化を制御する。
論文 参考訳(メタデータ) (2021-06-15T16:50:54Z) - Adaptive Feature Alignment for Adversarial Training [56.17654691470554]
CNNは通常、敵攻撃に対して脆弱であり、セキュリティに敏感なアプリケーションに脅威をもたらす。
任意の攻撃強度の特徴を生成するための適応的特徴アライメント(AFA)を提案する。
本手法は任意の攻撃強度の特徴を自動的に整列するように訓練されている。
論文 参考訳(メタデータ) (2021-05-31T17:01:05Z) - How Robust are Randomized Smoothing based Defenses to Data Poisoning? [66.80663779176979]
我々は、トレーニングデータの品質の重要性を強調する堅牢な機械学習モデルに対して、これまで認識されていなかった脅威を提示します。
本稿では,二段階最適化に基づく新たなデータ中毒攻撃法を提案し,ロバストな分類器のロバスト性を保証する。
我々の攻撃は、被害者が最先端のロバストな訓練方法を用いて、ゼロからモデルを訓練しても効果的である。
論文 参考訳(メタデータ) (2020-12-02T15:30:21Z) - Omni: Automated Ensemble with Unexpected Models against Adversarial
Evasion Attack [35.0689225703137]
機械学習に基づくセキュリティ検出モデルは、敵の回避攻撃の影響を受けやすい。
我々はオムニ(Omni)と呼ばれる手法を提案し、「予期せぬモデル」のアンサンブルを作成する方法を探る。
5種類の敵対的回避攻撃による研究において,オムニは防衛戦略として有望なアプローチであることを示す。
論文 参考訳(メタデータ) (2020-11-23T20:02:40Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。