論文の概要: Disrupting Deep Uncertainty Estimation Without Harming Accuracy
- arxiv url: http://arxiv.org/abs/2110.13741v1
- Date: Tue, 26 Oct 2021 14:44:00 GMT
- ステータス: 処理完了
- システム内更新日: 2021-10-27 18:23:34.469699
- Title: Disrupting Deep Uncertainty Estimation Without Harming Accuracy
- Title(参考訳): ハーミング精度のない深層不確かさ推定
- Authors: Ido Galil, Ran El-Yaniv
- Abstract要約: 本稿では,不確実性推定のためのネットワークのキャパシティを損なうことなく,誤予測を起こさない,新規で単純な攻撃を提案する。
提案した攻撃は、重大な不確実性推定損傷を引き起こすために、その摂動の極小程度しか要求されない。
我々は、バニラソフトマックススコア、ディープアンサンブル、MC-Dropoutの3つの最も一般的な不確実性評価手法に対する攻撃を成功させた。
- 参考スコア(独自算出の注目度): 23.854093182195246
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Deep neural networks (DNNs) have proven to be powerful predictors and are
widely used for various tasks. Credible uncertainty estimation of their
predictions, however, is crucial for their deployment in many risk-sensitive
applications. In this paper we present a novel and simple attack, which unlike
adversarial attacks, does not cause incorrect predictions but instead cripples
the network's capacity for uncertainty estimation. The result is that after the
attack, the DNN is more confident of its incorrect predictions than about its
correct ones without having its accuracy reduced. We present two versions of
the attack. The first scenario focuses on a black-box regime (where the
attacker has no knowledge of the target network) and the second scenario
attacks a white-box setting. The proposed attack is only required to be of
minuscule magnitude for its perturbations to cause severe uncertainty
estimation damage, with larger magnitudes resulting in completely unusable
uncertainty estimations. We demonstrate successful attacks on three of the most
popular uncertainty estimation methods: the vanilla softmax score, Deep
Ensembles and MC-Dropout. Additionally, we show an attack on SelectiveNet, the
selective classification architecture. We test the proposed attack on several
contemporary architectures such as MobileNetV2 and EfficientNetB0, all trained
to classify ImageNet.
- Abstract(参考訳): ディープニューラルネットワーク(dnn)は強力な予測器であり、様々なタスクに広く使われている。
しかし、その予測の信頼できる不確実性は、多くのリスクに敏感なアプリケーションへのデプロイに不可欠である。
本稿では,敵の攻撃と異なり,誤った予測を起こさず,ネットワークの不確実性推定能力に支障をきたす,新しい単純な攻撃を提案する。
その結果、攻撃後、DNNは正確さを低下させることなく、正しい予測よりも誤った予測を確信している。
攻撃の2つのバージョンを示す。
第1のシナリオはブラックボックスシステム(攻撃者はターゲットネットワークを知らない)に焦点を当て、第2のシナリオはホワイトボックス設定を攻撃します。
提案した攻撃は、重大な不確実性推定損傷を引き起こすために、その摂動の最小等級しか必要としないが、大きめの攻撃は、完全に使用不能な不確実性推定をもたらす。
我々は,バニラソフトマックススコア,ディープアンサンブル,MC-Dropoutの3つの最も一般的な不確実性評価手法に対する攻撃に成功した。
さらに,選択的分類アーキテクチャであるselectivenetへの攻撃を示す。
我々は,MobileNetV2 や EfficientNetB0 など,複数の現代的なアーキテクチャに対する攻撃をテストした。
関連論文リスト
- Rethinking Targeted Adversarial Attacks For Neural Machine Translation [56.10484905098989]
本報告では,NMTが標的とする敵攻撃に対して,信頼性の高い攻撃結果をもたらす可能性のある新たな設定を提案する。
新しい設定では、敵の例を作成するためのTWGA(Targeted Word Gradient Adversarial Attack)手法を提案する。
実験の結果,提案手法はNMTシステムに対する敵攻撃に対して忠実な攻撃効果をもたらす可能性が示唆された。
論文 参考訳(メタデータ) (2024-07-07T10:16:06Z) - Adversarial Attacks Against Uncertainty Quantification [10.655660123083607]
この研究は、攻撃者が依然として不確実性推定を操作することに興味を持つ異なる敵シナリオに焦点を当てる。
特に、アウトプットが下流モジュールや人間のオペレータによって消費される場合、機械学習モデルの使用を損なうことが目標である。
論文 参考訳(メタデータ) (2023-09-19T12:54:09Z) - Adversarial Attacks Neutralization via Data Set Randomization [3.655021726150369]
ディープラーニングモデルに対する敵対的な攻撃は、信頼性とセキュリティに深刻な脅威をもたらす。
本稿では,超空間射影に根ざした新しい防御機構を提案する。
提案手法は,敵対的攻撃に対するディープラーニングモデルの堅牢性を高めていることを示す。
論文 参考訳(メタデータ) (2023-06-21T10:17:55Z) - Revisiting DeepFool: generalization and improvement [17.714671419826715]
我々は,有効性と計算効率のバランスを崩す新たな敵攻撃群を導入する。
提案手法は,大規模モデルのロバスト性の評価にも適している。
論文 参考訳(メタデータ) (2023-03-22T11:49:35Z) - AdvDO: Realistic Adversarial Attacks for Trajectory Prediction [87.96767885419423]
軌道予測は、自動運転車が正しく安全な運転行動を計画するために不可欠である。
我々は,現実的な対向軌道を生成するために,最適化に基づく対向攻撃フレームワークを考案する。
私たちの攻撃は、AVが道路を走り去るか、シミュレーション中に他の車両に衝突する可能性がある。
論文 参考訳(メタデータ) (2022-09-19T03:34:59Z) - Zero-Query Transfer Attacks on Context-Aware Object Detectors [95.18656036716972]
敵は、ディープニューラルネットワークが誤った分類結果を生成するような摂動画像を攻撃する。
自然の多目的シーンに対する敵対的攻撃を防御するための有望なアプローチは、文脈整合性チェックを課すことである。
本稿では,コンテキスト整合性チェックを回避可能な,コンテキスト整合性攻撃を生成するための最初のアプローチを提案する。
論文 参考訳(メタデータ) (2022-03-29T04:33:06Z) - Utilizing Adversarial Targeted Attacks to Boost Adversarial Robustness [10.94463750304394]
敵対的攻撃はディープニューラルネットワーク(DNN)の性能を低下させるのに非常に効果的であることが示されている。
我々は,最近提案された予測正規化最大公準を取り入れた新しい解を提案する。
我々は、ResNet-50、WideResNet-28、およびImageNet、CIFAR10、MNISTで訓練された2層ConvNetを用いて、16の敵攻撃ベンチマークに対するアプローチを広範囲に評価した。
論文 参考訳(メタデータ) (2021-09-04T22:30:49Z) - Certifiers Make Neural Networks Vulnerable to Availability Attacks [70.69104148250614]
私たちは初めて、逆転戦略が敵によって意図的に引き起こされる可能性があることを示します。
いくつかの入力や摂動のために自然に発生する障害に加えて、敵は故意にフォールバックを誘発するために訓練時間攻撃を使用することができる。
我々は2つの新しいアベイラビリティーアタックを設計し、これらの脅威の実用的妥当性を示す。
論文 参考訳(メタデータ) (2021-08-25T15:49:10Z) - Targeted Attack against Deep Neural Networks via Flipping Limited Weight
Bits [55.740716446995805]
我々は,悪質な目的で展開段階におけるモデルパラメータを修飾する新しい攻撃パラダイムについて検討する。
私たちのゴールは、特定のサンプルをサンプル修正なしでターゲットクラスに誤分類することです。
整数プログラミングにおける最新の手法を利用することで、このBIP問題を連続最適化問題として等価に再構成する。
論文 参考訳(メタデータ) (2021-02-21T03:13:27Z) - Probabilistic Neighbourhood Component Analysis: Sample Efficient
Uncertainty Estimation in Deep Learning [25.8227937350516]
トレーニングデータの量が少ない場合,最先端のBNNとDeep Ensembleモデルの不確実性推定能力は著しく低下することを示す。
サンプル効率の高い非パラメトリックkNN手法の確率的一般化を提案する。
我々のアプローチは、深いkNNがその予測において根底にある不確かさを正確に定量化することを可能にする。
論文 参考訳(メタデータ) (2020-07-18T21:36:31Z) - Adversarial Fooling Beyond "Flipping the Label" [54.23547006072598]
CNNは、多くの重要なタスクにおいて、人間に近いか、人間のパフォーマンスよりも優れていることを示す。
これらの攻撃は、実際の展開において潜在的に危険である。
異なるCNNアーキテクチャの集合に対するいくつかの重要な敵攻撃を包括的に分析する。
論文 参考訳(メタデータ) (2020-04-27T13:21:03Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。