論文の概要: Hierarchical Distribution-Aware Testing of Deep Learning
- arxiv url: http://arxiv.org/abs/2205.08589v1
- Date: Tue, 17 May 2022 19:13:55 GMT
- ステータス: 処理完了
- システム内更新日: 2022-05-20 04:06:11.799128
- Title: Hierarchical Distribution-Aware Testing of Deep Learning
- Title(参考訳): ディープラーニングの階層的分布認識テスト
- Authors: Wei Huang, Xingyu Zhao, Alec Banks, Victoria Cox and Xiaowei Huang
- Abstract要約: 本稿では,適応例(AE)を検出するための新しいロバストネステスト手法を提案する。
入力の分布と知覚的品質の両方を考慮する。
入力分布を無視したり、単一の(階層的でない)分布しか考慮しない最先端の手法よりも優れている。
- 参考スコア(独自算出の注目度): 14.71032537980611
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: With its growing use in safety/security-critical applications, Deep Learning
(DL) has raised increasing concerns regarding its dependability. In particular,
DL has a notorious problem of lacking robustness. Despite recent efforts made
in detecting Adversarial Examples (AEs) via state-of-the-art attacking and
testing methods, they are normally input distribution agnostic and/or disregard
the perception quality of AEs. Consequently, the detected AEs are irrelevant
inputs in the application context or unnatural/unrealistic that can be easily
noticed by humans. This may lead to a limited effect on improving the DL
model's dependability, as the testing budget is likely to be wasted on
detecting AEs that are encountered very rarely in its real-life operations. In
this paper, we propose a new robustness testing approach for detecting AEs that
considers both the input distribution and the perceptual quality of inputs. The
two considerations are encoded by a novel hierarchical mechanism. First, at the
feature level, the input data distribution is extracted and approximated by
data compression techniques and probability density estimators. Such quantified
feature level distribution, together with indicators that are highly correlated
with local robustness, are considered in selecting test seeds. Given a test
seed, we then develop a two-step genetic algorithm for local test case
generation at the pixel level, in which two fitness functions work
alternatively to control the quality of detected AEs. Finally, extensive
experiments confirm that our holistic approach considering hierarchical
distributions at feature and pixel levels is superior to state-of-the-arts that
either disregard any input distribution or only consider a single
(non-hierarchical) distribution, in terms of not only the quality of detected
AEs but also improving the overall robustness of the DL model under testing.
- Abstract(参考訳): 安全性/セキュリティクリティカルなアプリケーションでの利用の増加に伴い、Deep Learning(DL)はその信頼性に関する懸念が高まっている。
特にDLには、堅牢性に欠ける悪名高い問題がある。
近年, 最先端の攻撃・試験手法による攻撃事例(AE)の検出が試みられているが, 通常は, AEの知覚品質を意識せず, あるいは無視している。
その結果、検出されたAEは、アプリケーションコンテキストにおける無関係な入力、あるいは人間によって容易に認識できる非自然的/非現実的入力となる。
これはDLモデルの信頼性向上に限定的な効果をもたらす可能性があり、実際の運用で非常に稀に発生するAEを検出するために、試験予算が無駄になる可能性がある。
本稿では,入力分布と知覚品質の両方を考慮したAE検出のための新しいロバストネステスト手法を提案する。
2つの考慮事項は、新しい階層的なメカニズムによって符号化される。
まず、特徴レベルでは、データ圧縮技術と確率密度推定器により、入力データ分布を抽出し、近似する。
このような定量化特徴量分布は, 試験種子の選択において, 局所ロバスト性に強く相関する指標とともに考慮される。
テストシードが与えられた後、画素レベルで局所的なテストケース生成のための2段階の遺伝的アルゴリズムを開発し、2つの適合関数が検出されたAEの品質を制御するために代わりに機能する。
最後に,特徴量および画素レベルの階層分布を考慮した総合的アプローチは,入力分布を無視したり,単一の(階層的でない)分布のみを考慮したりする最先端技術よりも,検出されたAEの品質だけでなく,試験中のDLモデル全体の堅牢性も向上することを示す。
関連論文リスト
- CL-Flow:Strengthening the Normalizing Flows by Contrastive Learning for
Better Anomaly Detection [1.951082473090397]
コントラスト学習と2D-Flowを組み合わせた自己教師付き異常検出手法を提案する。
本手法は,主流の教師なし手法と比較して,検出精度が向上し,モデルパラメータが減少し,推論速度が向上することを示す。
BTADデータセットでは,MVTecADデータセットでは画像レベルのAUROCが99.6%,BTADデータセットでは画像レベルのAUROCが96.8%であった。
論文 参考訳(メタデータ) (2023-11-12T10:07:03Z) - Don't Miss Out on Novelty: Importance of Novel Features for Deep Anomaly
Detection [64.21963650519312]
異常検出(AD)は、正規性の学習モデルに適合しない観察を識別する重要なタスクである。
本稿では, 入力空間における説明不能な観測として, 説明可能性を用いた新しいAD手法を提案する。
当社のアプローチでは,複数のベンチマークにまたがる新たな最先端性を確立し,さまざまな異常な型を扱う。
論文 参考訳(メタデータ) (2023-10-01T21:24:05Z) - Expecting The Unexpected: Towards Broad Out-Of-Distribution Detection [9.656342063882555]
5種類の分布変化について検討し,OOD検出手法の性能評価を行った。
その結果,これらの手法は未知のクラスの検出に優れるが,他のタイプの分散シフトに遭遇した場合,その性能は不整合であることがわかった。
我々は、より一貫性があり包括的なOOD検出ソリューションを提供するアンサンブルアプローチを提案する。
論文 参考訳(メタデータ) (2023-08-22T14:52:44Z) - Conservative Prediction via Data-Driven Confidence Minimization [70.93946578046003]
機械学習の安全性クリティカルな応用においては、モデルが保守的であることが望ましいことが多い。
本研究では,不確実性データセットに対する信頼性を最小化するデータ駆動信頼性最小化フレームワークを提案する。
論文 参考訳(メタデータ) (2023-06-08T07:05:36Z) - Robustness to Spurious Correlations Improves Semantic
Out-of-Distribution Detection [24.821151013905865]
画像入力のアウト・オブ・ディストリビューション(OOD)検出のための有望なアプローチとして,予測モデルの出力や特徴表現を利用する手法が登場した。
SN-OOD検出の故障について説明し、その対策としてニュアンス対応のOOD検出を提案する。
論文 参考訳(メタデータ) (2023-02-08T15:28:33Z) - Generalizability of Adversarial Robustness Under Distribution Shifts [57.767152566761304]
本研究は, 実証的, 証明された敵対的堅牢性間の相互作用と, ドメインの一般化を両立させるための第一歩を踏み出した。
複数のドメインでロバストモデルをトレーニングし、その正確性とロバスト性を評価する。
本研究は, 現実の医療応用をカバーするために拡張され, 敵の増大は, クリーンデータ精度に最小限の影響を伴って, 強靭性の一般化を著しく促進する。
論文 参考訳(メタデータ) (2022-09-29T18:25:48Z) - Be Your Own Neighborhood: Detecting Adversarial Example by the
Neighborhood Relations Built on Self-Supervised Learning [64.78972193105443]
本稿では,予測に有効な新しいAE検出フレームワークを提案する。
AEの異常な関係と拡張バージョンを区別して検出を行う。
表現を抽出し、ラベルを予測するために、既製の自己監視学習(SSL)モデルが使用される。
論文 参考訳(メタデータ) (2022-08-31T08:18:44Z) - What do we learn? Debunking the Myth of Unsupervised Outlier Detection [9.599183039166284]
自動エンコーダが2つの異なるタスクを解く際に実際に何を学ぶかを検討する。
現状のSOTA (State-of-the-art) AEsは潜伏多様体を制約できず、異常パターンの復元ができないか、潜伏分布から正確に入力を復元できないかを示す。
本稿では,新しい変形可能なオートエンコーダ(AEMorphus)を提案する。
論文 参考訳(メタデータ) (2022-06-08T06:36:16Z) - Exploring Robustness of Unsupervised Domain Adaptation in Semantic
Segmentation [74.05906222376608]
クリーンな画像とそれらの逆の例との一致を、出力空間における対照的な損失によって最大化する、逆向きの自己スーパービジョンUDA(ASSUDA)を提案する。
i) セマンティックセグメンテーションにおけるUDA手法のロバスト性は未解明のままであり, (ii) 一般的に自己スーパービジョン(回転やジグソーなど) は分類や認識などのイメージタスクに有効であるが, セグメンテーションタスクの識別的表現を学習する重要な監視信号の提供には失敗している。
論文 参考訳(メタデータ) (2021-05-23T01:50:44Z) - WSSOD: A New Pipeline for Weakly- and Semi-Supervised Object Detection [75.80075054706079]
弱機能および半教師付きオブジェクト検出フレームワーク(WSSOD)を提案する。
エージェント検出器は、まず関節データセット上でトレーニングされ、弱注釈画像上で擬似境界ボックスを予測するために使用される。
提案フレームワークはPASCAL-VOC と MSCOCO のベンチマークで顕著な性能を示し,完全教師付き環境で得られたものと同等の性能を達成している。
論文 参考訳(メタデータ) (2021-05-21T11:58:50Z) - Towards Characterizing Adversarial Defects of Deep Learning Software
from the Lens of Uncertainty [30.97582874240214]
逆例(AE)は、緊急に対処するために必要な、典型的な、重要な欠陥のタイプを表します。
深層学習決定の本質的な不確実性は、その誤った振る舞いの根本的な理由である。
良性例(BE)とAEsの不確実性パターンを同定・分類し,既存の手法で生成されたBEとAEは共通不確実性パターンに従うが,他の不確実性パターンはほとんど欠落している。
論文 参考訳(メタデータ) (2020-04-24T07:29:47Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。