論文の概要: On Attacking Out-Domain Uncertainty Estimation in Deep Neural Networks
- arxiv url: http://arxiv.org/abs/2210.02191v1
- Date: Mon, 3 Oct 2022 23:33:38 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-06 12:41:40.414100
- Title: On Attacking Out-Domain Uncertainty Estimation in Deep Neural Networks
- Title(参考訳): ディープニューラルネットワークにおける外部不確かさ推定の攻撃について
- Authors: Huimin Zeng, Zhenrui Yue, Yang Zhang, Ziyi Kou, Lanyu Shang, Dong Wang
- Abstract要約: 我々は,現在最先端の不確実性推定アルゴリズムが,我々の提案した敵攻撃の下で破滅的に失敗する可能性を示唆した。
特に、領域外不確実性推定を攻撃することを目的としている。
- 参考スコア(独自算出の注目度): 11.929914721626849
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In many applications with real-world consequences, it is crucial to develop
reliable uncertainty estimation for the predictions made by the AI decision
systems. Targeting at the goal of estimating uncertainty, various deep neural
network (DNN) based uncertainty estimation algorithms have been proposed.
However, the robustness of the uncertainty returned by these algorithms has not
been systematically explored. In this work, to raise the awareness of the
research community on robust uncertainty estimation, we show that
state-of-the-art uncertainty estimation algorithms could fail catastrophically
under our proposed adversarial attack despite their impressive performance on
uncertainty estimation. In particular, we aim at attacking the out-domain
uncertainty estimation: under our attack, the uncertainty model would be fooled
to make high-confident predictions for the out-domain data, which they
originally would have rejected. Extensive experimental results on various
benchmark image datasets show that the uncertainty estimated by
state-of-the-art methods could be easily corrupted by our attack.
- Abstract(参考訳): 実世界の結果を持つ多くのアプリケーションにおいて、AI決定システムによる予測に対する信頼性の高い不確実性推定を開発することが重要である。
不確実性を推定する目的で、様々なディープニューラルネットワーク(DNN)に基づく不確実性推定アルゴリズムが提案されている。
しかし、これらのアルゴリズムによって返される不確実性は体系的に検討されていない。
本研究では,ロバストな不確実性推定に関する研究コミュニティの意識を高めるために,不確実性推定における印象的な性能にもかかわらず,提案する敵対的攻撃において,最先端の不確実性推定アルゴリズムが壊滅的に失敗する可能性を示す。
特に、我々は、ドメイン外不確実性推定を攻撃することを目指しており、我々の攻撃下では、その不確実性モデルを騙して、ドメイン外データに対して高信頼な予測を行う。
各種ベンチマーク画像データセットの大規模な実験結果から, 最先端手法による不確実性の評価は, 攻撃によって容易に悪くなる可能性が示唆された。
関連論文リスト
- One step closer to unbiased aleatoric uncertainty estimation [71.55174353766289]
そこで本研究では,観測データのアクティブデノイズ化による新しい推定手法を提案する。
幅広い実験を行うことで,提案手法が標準手法よりも実際のデータ不確実性にはるかに近い近似を与えることを示す。
論文 参考訳(メタデータ) (2023-12-16T14:59:11Z) - Density Uncertainty Layers for Reliable Uncertainty Estimation [20.867449366086237]
ディープニューラルネットワークの予測不確実性を評価することは、ディープラーニングの安全性関連の応用に不可欠である。
本稿では,モデルが入力の経験的密度に基づいて予測分散を行う必要があるという,信頼性のある予測不確実性のための新しい基準を提案する。
既存の手法と比較すると、密度不確実性層はより信頼性の高い不確実性推定とロバストなアウト・オブ・ディストリビューション検出性能を提供する。
論文 参考訳(メタデータ) (2023-06-21T18:12:58Z) - Gradient-based Uncertainty Attribution for Explainable Bayesian Deep
Learning [38.34033824352067]
ディープラーニングモデルによる予測は、データ摂動、敵攻撃、アウト・オブ・ディストリビューション・インプットの傾向が強い。
本稿では,正確な不確実性定量化を行うための説明可能かつ実用的なベイズ深層学習法を提案する。
論文 参考訳(メタデータ) (2023-04-10T19:14:15Z) - Fast Uncertainty Estimates in Deep Learning Interatomic Potentials [0.0]
本研究では,単一ニューラルネットワークを用いて,アンサンブルを必要とせずに予測不確実性を推定する手法を提案する。
本研究では,不確実性の推定値の品質が深層アンサンブルから得られた値と一致することを示す。
論文 参考訳(メタデータ) (2022-11-17T20:13:39Z) - Comparison of Uncertainty Quantification with Deep Learning in Time
Series Regression [7.6146285961466]
本稿では,気象時系列データと異なる不確実性推定手法を比較した。
その結果,各不確実性推定手法が予測タスクに与える影響が示された。
論文 参考訳(メタデータ) (2022-11-11T14:29:13Z) - The Unreasonable Effectiveness of Deep Evidential Regression [72.30888739450343]
不確実性を考慮した回帰ベースニューラルネットワーク(NN)による新しいアプローチは、従来の決定論的手法や典型的なベイズ的NNよりも有望であることを示している。
我々は、理論的欠点を詳述し、合成および実世界のデータセットのパフォーマンスを分析し、Deep Evidential Regressionが正確な不確実性ではなく定量化であることを示す。
論文 参考訳(メタデータ) (2022-05-20T10:10:32Z) - Dense Uncertainty Estimation [62.23555922631451]
本稿では,ニューラルネットワークと不確実性推定手法について検討し,正確な決定論的予測と確実性推定の両方を実現する。
本研究では,アンサンブルに基づく手法と生成モデルに基づく手法の2つの不確実性推定法について検討し,それらの長所と短所を,完全/半端/弱度に制御されたフレームワークを用いて説明する。
論文 参考訳(メタデータ) (2021-10-13T01:23:48Z) - Adversarial Attack for Uncertainty Estimation: Identifying Critical
Regions in Neural Networks [0.0]
本稿では,ニューラルネットワークにおける決定境界付近のデータポイントをキャプチャする手法を提案する。
不確実性推定は、モデルのパラメータに摂動を与える以前の研究とは異なり、入力摂動から導かれる。
提案手法は,他の手法よりも優れた性能を示し,機械学習におけるモデル不確実性を捉えるリスクが低いことを示した。
論文 参考訳(メタデータ) (2021-07-15T21:30:26Z) - DEUP: Direct Epistemic Uncertainty Prediction [56.087230230128185]
認識の不確実性は、学習者の知識の欠如によるサンプル外の予測エラーの一部である。
一般化誤差の予測を学習し, aleatoric uncertaintyの推定を減算することで, 認識的不確かさを直接推定する原理的アプローチを提案する。
論文 参考訳(メタデータ) (2021-02-16T23:50:35Z) - The Aleatoric Uncertainty Estimation Using a Separate Formulation with
Virtual Residuals [51.71066839337174]
既存の手法では、ターゲット推定における誤差を定量化できるが、過小評価する傾向がある。
本稿では,信号とその不確かさを推定するための新たな分離可能な定式化を提案し,オーバーフィッティングの影響を回避した。
提案手法は信号および不確実性推定のための最先端技術より優れていることを示す。
論文 参考訳(メタデータ) (2020-11-03T12:11:27Z) - Learning to Predict Error for MRI Reconstruction [67.76632988696943]
提案手法による予測の不確実性は予測誤差と強く相関しないことを示す。
本稿では,2段階の予測誤差の目標ラベルと大小を推定する新しい手法を提案する。
論文 参考訳(メタデータ) (2020-02-13T15:55:32Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。