論文の概要: Hierarchical Distribution-Aware Testing of Deep Learning
- arxiv url: http://arxiv.org/abs/2205.08589v2
- Date: Fri, 1 Sep 2023 21:05:16 GMT
- ステータス: 処理完了
- システム内更新日: 2023-09-07 12:14:58.000594
- Title: Hierarchical Distribution-Aware Testing of Deep Learning
- Title(参考訳): ディープラーニングの階層的分布認識テスト
- Authors: Wei Huang, Xingyu Zhao, Alec Banks, Victoria Cox and Xiaowei Huang
- Abstract要約: 深層学習(DL)は、安全クリティカルなアプリケーションでますます使われており、信頼性への懸念が高まっている。
逆数例(AEs)として知られる逆数摂動に直面した場合、DLは堅牢性に欠けるよく知られた問題に悩まされる。
本稿では,特徴量分布と画素レベル分布の両方を考慮したAE検出のための新しいロバストネステスト手法を提案する。
- 参考スコア(独自算出の注目度): 13.254093944540438
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Deep Learning (DL) is increasingly used in safety-critical applications,
raising concerns about its reliability. DL suffers from a well-known problem of
lacking robustness, especially when faced with adversarial perturbations known
as Adversarial Examples (AEs). Despite recent efforts to detect AEs using
advanced attack and testing methods, these approaches often overlook the input
distribution and perceptual quality of the perturbations. As a result, the
detected AEs may not be relevant in practical applications or may appear
unrealistic to human observers. This can waste testing resources on rare AEs
that seldom occur during real-world use, limiting improvements in DL model
dependability.
In this paper, we propose a new robustness testing approach for detecting AEs
that considers both the feature level distribution and the pixel level
distribution, capturing the perceptual quality of adversarial perturbations.
The two considerations are encoded by a novel hierarchical mechanism. First, we
select test seeds based on the density of feature level distribution and the
vulnerability of adversarial robustness. The vulnerability of test seeds are
indicated by the auxiliary information, that are highly correlated with local
robustness. Given a test seed, we then develop a novel genetic algorithm based
local test case generation method, in which two fitness functions work
alternatively to control the perceptual quality of detected AEs. Finally,
extensive experiments confirm that our holistic approach considering
hierarchical distributions is superior to the state-of-the-arts that either
disregard any input distribution or only consider a single (non-hierarchical)
distribution, in terms of not only detecting imperceptible AEs but also
improving the overall robustness of the DL model under testing.
- Abstract(参考訳): 深層学習(DL)は、安全クリティカルなアプリケーションでますます使われており、信頼性への懸念が高まっている。
DLは堅牢性に欠けるよく知られた問題に悩まされており、特に敵対的摂動(adversarial Examples, AEs)に直面している。
近年の攻撃・試験手法によるAE検出の試みにもかかわらず、これらの手法はしばしば摂動の入力分布と知覚品質を見落としている。
その結果、検出されたAEは実用的応用には関係しないかもしれないし、人間の観察者には非現実的に見えるかもしれない。
これにより、実世界の使用中にほとんど発生しないまれなaesのテストリソースを浪費し、dlモデル依存性の改善を制限できる。
本稿では,特徴レベル分布と画素レベル分布の両方を考慮し,逆摂動の知覚的品質を捉える新しいロバストネステスト手法を提案する。
2つの考慮事項は、新しい階層的なメカニズムによって符号化される。
まず, 特徴量分布の密度と, 対向ロバスト性の脆弱性に基づいて, 試験種を選択する。
試験種子の脆弱性は, 局所的強靭性に強く相関する補助情報によって示される。
そこで我々は,新しい遺伝的アルゴリズムを用いた局所的テストケース生成法を開発し,検出されたAEの知覚品質を制御するために2つのフィットネス機能を代替的に機能させる。
最後に, 階層分布を考慮した包括的アプローチは, 入力分布を無視したり, 単一(階層的でない)分布のみを考慮する技術よりも, 知覚不可能なAEの検出だけでなく, テスト中のDLモデルの全体的な堅牢性の向上にも優れていることを示す。
関連論文リスト
- CL-Flow:Strengthening the Normalizing Flows by Contrastive Learning for
Better Anomaly Detection [1.951082473090397]
コントラスト学習と2D-Flowを組み合わせた自己教師付き異常検出手法を提案する。
本手法は,主流の教師なし手法と比較して,検出精度が向上し,モデルパラメータが減少し,推論速度が向上することを示す。
BTADデータセットでは,MVTecADデータセットでは画像レベルのAUROCが99.6%,BTADデータセットでは画像レベルのAUROCが96.8%であった。
論文 参考訳(メタデータ) (2023-11-12T10:07:03Z) - Don't Miss Out on Novelty: Importance of Novel Features for Deep Anomaly
Detection [64.21963650519312]
異常検出(AD)は、正規性の学習モデルに適合しない観察を識別する重要なタスクである。
本稿では, 入力空間における説明不能な観測として, 説明可能性を用いた新しいAD手法を提案する。
当社のアプローチでは,複数のベンチマークにまたがる新たな最先端性を確立し,さまざまな異常な型を扱う。
論文 参考訳(メタデータ) (2023-10-01T21:24:05Z) - Expecting The Unexpected: Towards Broad Out-Of-Distribution Detection [9.656342063882555]
5種類の分布変化について検討し,OOD検出手法の性能評価を行った。
その結果,これらの手法は未知のクラスの検出に優れるが,他のタイプの分散シフトに遭遇した場合,その性能は不整合であることがわかった。
我々は、より一貫性があり包括的なOOD検出ソリューションを提供するアンサンブルアプローチを提案する。
論文 参考訳(メタデータ) (2023-08-22T14:52:44Z) - Conservative Prediction via Data-Driven Confidence Minimization [70.93946578046003]
機械学習の安全性クリティカルな応用においては、モデルが保守的であることが望ましいことが多い。
本研究では,不確実性データセットに対する信頼性を最小化するデータ駆動信頼性最小化フレームワークを提案する。
論文 参考訳(メタデータ) (2023-06-08T07:05:36Z) - Robustness to Spurious Correlations Improves Semantic
Out-of-Distribution Detection [24.821151013905865]
画像入力のアウト・オブ・ディストリビューション(OOD)検出のための有望なアプローチとして,予測モデルの出力や特徴表現を利用する手法が登場した。
SN-OOD検出の故障について説明し、その対策としてニュアンス対応のOOD検出を提案する。
論文 参考訳(メタデータ) (2023-02-08T15:28:33Z) - Generalizability of Adversarial Robustness Under Distribution Shifts [57.767152566761304]
本研究は, 実証的, 証明された敵対的堅牢性間の相互作用と, ドメインの一般化を両立させるための第一歩を踏み出した。
複数のドメインでロバストモデルをトレーニングし、その正確性とロバスト性を評価する。
本研究は, 現実の医療応用をカバーするために拡張され, 敵の増大は, クリーンデータ精度に最小限の影響を伴って, 強靭性の一般化を著しく促進する。
論文 参考訳(メタデータ) (2022-09-29T18:25:48Z) - Be Your Own Neighborhood: Detecting Adversarial Example by the
Neighborhood Relations Built on Self-Supervised Learning [64.78972193105443]
本稿では,予測に有効な新しいAE検出フレームワークを提案する。
AEの異常な関係と拡張バージョンを区別して検出を行う。
表現を抽出し、ラベルを予測するために、既製の自己監視学習(SSL)モデルが使用される。
論文 参考訳(メタデータ) (2022-08-31T08:18:44Z) - What do we learn? Debunking the Myth of Unsupervised Outlier Detection [9.599183039166284]
自動エンコーダが2つの異なるタスクを解く際に実際に何を学ぶかを検討する。
現状のSOTA (State-of-the-art) AEsは潜伏多様体を制約できず、異常パターンの復元ができないか、潜伏分布から正確に入力を復元できないかを示す。
本稿では,新しい変形可能なオートエンコーダ(AEMorphus)を提案する。
論文 参考訳(メタデータ) (2022-06-08T06:36:16Z) - Exploring Robustness of Unsupervised Domain Adaptation in Semantic
Segmentation [74.05906222376608]
クリーンな画像とそれらの逆の例との一致を、出力空間における対照的な損失によって最大化する、逆向きの自己スーパービジョンUDA(ASSUDA)を提案する。
i) セマンティックセグメンテーションにおけるUDA手法のロバスト性は未解明のままであり, (ii) 一般的に自己スーパービジョン(回転やジグソーなど) は分類や認識などのイメージタスクに有効であるが, セグメンテーションタスクの識別的表現を学習する重要な監視信号の提供には失敗している。
論文 参考訳(メタデータ) (2021-05-23T01:50:44Z) - WSSOD: A New Pipeline for Weakly- and Semi-Supervised Object Detection [75.80075054706079]
弱機能および半教師付きオブジェクト検出フレームワーク(WSSOD)を提案する。
エージェント検出器は、まず関節データセット上でトレーニングされ、弱注釈画像上で擬似境界ボックスを予測するために使用される。
提案フレームワークはPASCAL-VOC と MSCOCO のベンチマークで顕著な性能を示し,完全教師付き環境で得られたものと同等の性能を達成している。
論文 参考訳(メタデータ) (2021-05-21T11:58:50Z) - Towards Characterizing Adversarial Defects of Deep Learning Software
from the Lens of Uncertainty [30.97582874240214]
逆例(AE)は、緊急に対処するために必要な、典型的な、重要な欠陥のタイプを表します。
深層学習決定の本質的な不確実性は、その誤った振る舞いの根本的な理由である。
良性例(BE)とAEsの不確実性パターンを同定・分類し,既存の手法で生成されたBEとAEは共通不確実性パターンに従うが,他の不確実性パターンはほとんど欠落している。
論文 参考訳(メタデータ) (2020-04-24T07:29:47Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。