論文の概要: CertPri: Certifiable Prioritization for Deep Neural Networks via
Movement Cost in Feature Space
- arxiv url: http://arxiv.org/abs/2307.09375v1
- Date: Tue, 18 Jul 2023 15:59:37 GMT
- ステータス: 処理完了
- システム内更新日: 2023-07-19 13:56:17.443871
- Title: CertPri: Certifiable Prioritization for Deep Neural Networks via
Movement Cost in Feature Space
- Title(参考訳): CertPri: 機能空間における移動コストによるディープニューラルネットワークの認証プライオリティ化
- Authors: Haibin Zheng, Jinyin Chen, Haibo Jin
- Abstract要約: ディープニューラルネットワーク(DNN)は、様々なソフトウェアシステムでその性能を実証しているだけでなく、誤った振る舞いを示し、さらには不可逆的な災害を引き起こしている。
テスト入力の優先順位付けは、DNNの品質を保証する最も魅力的な方法の1つである。
本稿では,移動コストの観点から,テスト入力優先化手法であるCertPriを提案する。
- 参考スコア(独自算出の注目度): 3.8501747949459633
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Deep neural networks (DNNs) have demonstrated their outperformance in various
software systems, but also exhibit misbehavior and even result in irreversible
disasters. Therefore, it is crucial to identify the misbehavior of DNN-based
software and improve DNNs' quality. Test input prioritization is one of the
most appealing ways to guarantee DNNs' quality, which prioritizes test inputs
so that more bug-revealing inputs can be identified earlier with limited time
and manual labeling efforts. However, the existing prioritization methods are
still limited from three aspects: certifiability, effectiveness, and
generalizability. To overcome the challenges, we propose CertPri, a test input
prioritization technique designed based on a movement cost perspective of test
inputs in DNNs' feature space. CertPri differs from previous works in three key
aspects: (1) certifiable: it provides a formal robustness guarantee for the
movement cost; (2) effective: it leverages formally guaranteed movement costs
to identify malicious bug-revealing inputs; and (3) generic: it can be applied
to various tasks, data, models, and scenarios. Extensive evaluations across 2
tasks (i.e., classification and regression), 6 data forms, 4 model structures,
and 2 scenarios (i.e., white-box and black-box) demonstrate CertPri's superior
performance. For instance, it significantly improves 53.97% prioritization
effectiveness on average compared with baselines. Its robustness and
generalizability are 1.41~2.00 times and 1.33~3.39 times that of baselines on
average, respectively.
- Abstract(参考訳): ディープニューラルネットワーク(DNN)は、様々なソフトウェアシステムでその性能を実証しているが、誤った振る舞いを示し、さらには不可逆的な災害を引き起こす。
したがって、DNNベースのソフトウェアの誤動作を特定し、DNNの品質を向上させることが重要である。
テスト入力の優先順位付けは、DNNの品質を保証する最も魅力的な方法の1つである。
しかし、既存の優先順位付け方法はまだ3つの側面から制限されている。
そこで我々は,DNNの機能空間におけるテスト入力の移動コストの観点に基づいて設計したテスト入力優先化手法であるCertPriを提案する。
certpriは、3つの重要な側面で以前の作品と異なる: (1) 認証可能: 移動コストに対する公式な堅牢性保証を提供する; (2) 効果的: 公式に保証された移動コストを活用して悪意のあるバグ検出入力を識別する; (3) 汎用: 様々なタスク、データ、モデル、シナリオに適用できる。
2つのタスク(分類と回帰)、6つのデータフォーム、4つのモデル構造、2つのシナリオ(ホワイトボックスとブラックボックス)にわたる広範な評価は、certpriの優れたパフォーマンスを示している。
例えば、ベースラインに比べて平均53.97%の優先順位付け効率が大幅に向上する。
その堅牢性と一般化性はそれぞれ1.41~2.00倍と1.33~3.39倍である。
関連論文リスト
- FAST: Boosting Uncertainty-based Test Prioritization Methods for Neural Networks via Feature Selection [29.20073572683383]
本稿では,FeAture SelecTionをガイドとして,既存の優先順位付け手法を高速化するFASTを提案する。
FASTは、特定の機能がモデルの出力信頼度に影響を与えるノイズをもたらす可能性があるという洞察に基づいている。
モデルの正しい予測に対する各特徴の重要性を定量化し、ノイズのある特徴から動的に情報を抽出する。
論文 参考訳(メタデータ) (2024-09-13T18:13:09Z) - Uncertainty-Aware Testing-Time Optimization for 3D Human Pose Estimation [68.75387874066647]
本研究では3次元ポーズ推定のための不確実性認識テスト時間最適化フレームワークを提案する。
我々のアプローチは、Human3.6Mの4.5%という大きなマージンで、過去最高の結果を上回っている。
論文 参考訳(メタデータ) (2024-02-04T04:28:02Z) - Self-supervised Feature Adaptation for 3D Industrial Anomaly Detection [59.41026558455904]
具体的には,大規模ビジュアルデータセット上で事前学習されたモデルを利用した初期のマルチモーダルアプローチについて検討する。
本研究では,アダプタを微調整し,異常検出に向けたタスク指向の表現を学習するためのLSFA法を提案する。
論文 参考訳(メタデータ) (2024-01-06T07:30:41Z) - Bridging Precision and Confidence: A Train-Time Loss for Calibrating
Object Detection [58.789823426981044]
本稿では,境界ボックスのクラス信頼度を予測精度に合わせることを目的とした,新たな補助損失定式化を提案する。
その結果,列車の走行時間損失はキャリブレーション基準を超過し,キャリブレーション誤差を低減させることがわかった。
論文 参考訳(メタデータ) (2023-03-25T08:56:21Z) - DeepGD: A Multi-Objective Black-Box Test Selection Approach for Deep
Neural Networks [0.6249768559720121]
DeepGDはディープニューラルネットワーク(DNN)のためのブラックボックス多目的テスト選択アプローチ
大規模なラベル付けされていないデータセットから高い障害を露呈するパワーでテスト入力の選択を優先順位付けすることで、ラベル付けのコストを低減します。
論文 参考訳(メタデータ) (2023-03-08T20:33:09Z) - Towards Better Out-of-Distribution Generalization of Neural Algorithmic
Reasoning Tasks [51.8723187709964]
ニューラルネットワーク推論タスクのOOD一般化について検討する。
目標は、ディープニューラルネットワークを使用して入出力ペアからアルゴリズムを学ぶことである。
論文 参考訳(メタデータ) (2022-11-01T18:33:20Z) - NeuronFair: Interpretable White-Box Fairness Testing through Biased
Neuron Identification [25.211265460381075]
ディープニューラルネットワーク(DNN)は、様々な領域でその性能を実証している。
DNNがセンシティブなドメイン(教育、融資、雇用など)に確実に展開される前に公平性テストを実施することが不可欠である。
本稿では,従来の研究と異なる新たなフェアネステストフレームワークであるNeuronFairを提案する。
論文 参考訳(メタデータ) (2021-12-25T09:19:39Z) - Distribution-Aware Testing of Neural Networks Using Generative Models [5.618419134365903]
ディープニューラルネットワーク(DNN)をコンポーネントとして持つソフトウェアの信頼性は、緊急に重要である。
最近の3つのテスト手法が, かなりの数の不正なテスト入力を生成することを示す。
テスト生成プロセスにおいて,テスト中のDNNモデルの有効な入力空間を組み込む手法を提案する。
論文 参考訳(メタデータ) (2021-02-26T17:18:21Z) - S2-BNN: Bridging the Gap Between Self-Supervised Real and 1-bit Neural
Networks via Guided Distribution Calibration [74.5509794733707]
本研究では, 実数値から, 最終予測分布上のバイナリネットワークへの誘導型学習パラダイムを提案する。
提案手法は,bnn上で5.515%の絶対利得で,単純なコントラスト学習ベースラインを向上できる。
提案手法は、単純なコントラスト学習ベースラインよりも大幅に改善され、多くの主流教師付きBNN手法に匹敵する。
論文 参考訳(メタデータ) (2021-02-17T18:59:28Z) - A Survey on Assessing the Generalization Envelope of Deep Neural
Networks: Predictive Uncertainty, Out-of-distribution and Adversarial Samples [77.99182201815763]
ディープニューラルネットワーク(DNN)は多くのアプリケーションで最先端のパフォーマンスを達成する。
入力を受けたDNNが、通常、その決定基準が不透明であるため、正しい出力を提供するかどうかを事前に判断することは困難である。
本調査は,機械学習手法,特にDNNの一般化性能について,大規模フレームワーク内の3つの分野を関連づけるものである。
論文 参考訳(メタデータ) (2020-08-21T09:12:52Z) - Accelerating Robustness Verification of Deep Neural Networks Guided by
Target Labels [8.9960048245668]
ディープニューラルネットワーク(DNN)は、自律運転や医療診断など、多くの安全クリティカルなアプリケーションの主要なコンポーネントとなっている。
DNNは、入力に対する小さな摂動が誤った予測をもたらすような敵の例に感受性があるため、ロバスト性に悩まされる。
本稿では,ロバスト性検証を目標ラベルで導くことによって,ロバスト性検証手法を高速化する手法を提案する。
論文 参考訳(メタデータ) (2020-07-16T00:51:52Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。