論文の概要: Certifying Joint Adversarial Robustness for Model Ensembles
- arxiv url: http://arxiv.org/abs/2004.10250v1
- Date: Tue, 21 Apr 2020 19:38:31 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-11 06:29:05.077057
- Title: Certifying Joint Adversarial Robustness for Model Ensembles
- Title(参考訳): モデルアンサンブルにおける連立対向ロバスト性認証
- Authors: Mainuddin Ahmad Jonas, David Evans
- Abstract要約: ディープニューラルネットワーク(DNN)は、しばしば敵の例に対して脆弱である。
提案された防御は、個々のモデルが脆弱であるとしても、敵がアンサンブルに対して成功する敵の例を見つけることができないことを期待して、モデルのアンサンブルを展開させる。
モデルアンサンブルのジョイント脆弱性を考察し,アンサンブルのジョイントロバスト性を証明する新しい手法を提案する。
- 参考スコア(独自算出の注目度): 10.203602318836445
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Deep Neural Networks (DNNs) are often vulnerable to adversarial
examples.Several proposed defenses deploy an ensemble of models with the hope
that, although the individual models may be vulnerable, an adversary will not
be able to find an adversarial example that succeeds against the ensemble.
Depending on how the ensemble is used, an attacker may need to find a single
adversarial example that succeeds against all, or a majority, of the models in
the ensemble. The effectiveness of ensemble defenses against strong adversaries
depends on the vulnerability spaces of models in the ensemble being disjoint.
We consider the joint vulnerability of an ensemble of models, and propose a
novel technique for certifying the joint robustness of ensembles, building upon
prior works on single-model robustness certification. We evaluate the
robustness of various models ensembles, including models trained using
cost-sensitive robustness to be diverse, to improve understanding of the
potential effectiveness of ensemble models as a defense against adversarial
examples.
- Abstract(参考訳): ディープニューラルネットワーク(DNN)は、しばしば敵の例に対して脆弱である。個々のモデルが脆弱であるとしても、敵がアンサンブルに対して成功する敵の例を見つけることができないことを願って、いくつかの防衛案がモデルのアンサンブルを展開している。
アンサンブルの使い方によっては、攻撃者はアンサンブル内の全てのモデル、または大多数に対して成功する単一の敵の例を見つける必要がある。
強敵に対するアンサンブル防御の有効性は、アンサンブルが解離しているモデルの脆弱性空間に依存する。
モデルアンサンブルのジョイント脆弱性を考察し,単一モデルロバスト性証明に関する先行研究に基づいて,アンサンブルのジョイントロバスト性を証明する新しい手法を提案する。
本稿では,様々なモデルアンサンブルのロバスト性を評価するため,コストに敏感なロバスト性を用いて訓練されたモデルを含む様々なモデルのロバスト性を評価する。
関連論文リスト
- Unlearning Backdoor Threats: Enhancing Backdoor Defense in Multimodal Contrastive Learning via Local Token Unlearning [49.242828934501986]
マルチモーダルコントラスト学習は高品質な機能を構築するための強力なパラダイムとして登場した。
バックドア攻撃は 訓練中に モデルに 悪意ある行動を埋め込む
我々は,革新的なトークンベースの局所的忘れ忘れ学習システムを導入する。
論文 参考訳(メタデータ) (2024-03-24T18:33:15Z) - JAB: Joint Adversarial Prompting and Belief Augmentation [81.39548637776365]
我々は,ブラックボックスターゲットモデルの強靭性を,敵対的プロンプトと信念の増大を通じて探索し,改善する共同枠組みを導入する。
このフレームワークは、自動的なレッド・チームリング手法を用いてターゲットモデルを探索し、信念強化器を用いて目標モデルの命令を生成し、敵のプローブに対するロバスト性を向上させる。
論文 参考訳(メタデータ) (2023-11-16T00:35:54Z) - Robust Ensemble Morph Detection with Domain Generalization [23.026167387128933]
我々は,多種多様な形態素攻撃への高一般化と,異なる敵攻撃に対する強靭性を有する形態素検出モデルを学習する。
本研究の目的は,畳み込みニューラルネットワーク(CNN)とトランスフォーマーモデルのアンサンブルを同時に構築することである。
提案したロバストアンサンブルモデルがいくつかのモーフィング攻撃や顔データセットに一般化されることを示す。
論文 参考訳(メタデータ) (2022-09-16T19:00:57Z) - Robust Transferable Feature Extractors: Learning to Defend Pre-Trained
Networks Against White Box Adversaries [69.53730499849023]
また, 予測誤差を誘導するために, 逆例を独立に学習した別のモデルに移すことが可能であることを示す。
本稿では,頑健な伝達可能な特徴抽出器(RTFE)と呼ばれる,ディープラーニングに基づく事前処理機構を提案する。
論文 参考訳(メタデータ) (2022-09-14T21:09:34Z) - Resisting Adversarial Attacks in Deep Neural Networks using Diverse
Decision Boundaries [12.312877365123267]
深層学習システムは、人間の目には認識できないが、モデルが誤分類される可能性がある、人工的な敵の例に弱い。
我々は,オリジナルモデルに対する多様な決定境界を持つディフェンダーモデルを構築するための,アンサンブルに基づく新しいソリューションを開発した。
我々は、MNIST、CIFAR-10、CIFAR-100といった標準画像分類データセットを用いて、最先端の敵攻撃に対する広範な実験を行った。
論文 参考訳(メタデータ) (2022-08-18T08:19:26Z) - Latent Boundary-guided Adversarial Training [61.43040235982727]
モデルトレーニングに敵の例を注入する最も効果的な戦略は、敵のトレーニングであることが証明されている。
本稿では, LAtent bounDary-guided aDvErsarial tRaining という新たな逆トレーニングフレームワークを提案する。
論文 参考訳(メタデータ) (2022-06-08T07:40:55Z) - Jacobian Ensembles Improve Robustness Trade-offs to Adversarial Attacks [5.70772577110828]
本稿では,UAPに対するロバスト性を高めるために,新しいアプローチであるJacobian Ensemblesを提案する。
以上の結果から,ヤコビアンアン・アンサンブルは未確認の精度とロバスト性を達成できることが示唆された。
論文 参考訳(メタデータ) (2022-04-19T08:04:38Z) - "What's in the box?!": Deflecting Adversarial Attacks by Randomly
Deploying Adversarially-Disjoint Models [71.91835408379602]
敵の例は長い間、機械学習モデルに対する真の脅威と考えられてきた。
我々は、従来のホワイトボックスやブラックボックスの脅威モデルを超えた、配置ベースの防衛パラダイムを提案する。
論文 参考訳(メタデータ) (2021-02-09T20:07:13Z) - Voting based ensemble improves robustness of defensive models [82.70303474487105]
我々は、より堅牢性を高めるためのアンサンブルを作ることができるかどうか研究する。
最先端の先制防衛モデルを複数組み合わせることで,59.8%の堅牢な精度を達成できる。
論文 参考訳(メタデータ) (2020-11-28T00:08:45Z) - Evaluating Ensemble Robustness Against Adversarial Attacks [0.0]
ニューラルネットワークを騙す目的で生成されるわずかな摂動入力である逆例は、モデル間で転送されることが知られている。
この転送可能性の概念は、ブラックボックスの設定でモデルを攻撃する可能性につながるため、重大なセキュリティ上の懸念を引き起こす。
我々は、アンサンブルの構成モデルが効果的に協調して、アンサンブル自体を対象とする対角的例の空間を減らし、グラデーションに基づく尺度を導入する。
論文 参考訳(メタデータ) (2020-05-12T13:20:54Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。