論文の概要: Learning-Based Testing for Deep Learning: Enhancing Model Robustness with Adversarial Input Prioritization
- arxiv url: http://arxiv.org/abs/2509.23961v1
- Date: Sun, 28 Sep 2025 16:31:30 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-09-30 22:32:19.555986
- Title: Learning-Based Testing for Deep Learning: Enhancing Model Robustness with Adversarial Input Prioritization
- Title(参考訳): ディープラーニングのための学習ベーステスト: 逆入力優先化によるモデルロバストネスの強化
- Authors: Sheikh Md Mushfiqur Rahman, Nasir Eisty,
- Abstract要約: このプロジェクトはディープニューラルネットワーク(DNN)における障害検出とモデルロバスト性の向上を目的としている。
本手法は, アーキテクチャ固有の特徴や形式的検証に頼ることなく, モデル欠陥を暴露する確率の高い逆入力のサブセットを選択する。
テストの置換を効率的に組織することにより、さまざまなデータセット、モデルアーキテクチャ、および敵攻撃テクニックで、潜在的なすべての障害を著しく高速に発見する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Context: Deep Neural Networks (DNNs) are increasingly deployed in critical applications, where resilience against adversarial inputs is paramount. However, whether coverage-based or confidence-based, existing test prioritization methods often fail to efficiently identify the most fault-revealing inputs, limiting their practical effectiveness. Aims: This project aims to enhance fault detection and model robustness in DNNs by integrating Learning-Based Testing (LBT) with hypothesis and mutation testing to efficiently prioritize adversarial test cases. Methods: Our method selects a subset of adversarial inputs with a high likelihood of exposing model faults, without relying on architecture-specific characteristics or formal verification, making it adaptable across diverse DNNs. Results: Our results demonstrate that the proposed LBT method consistently surpasses baseline approaches in prioritizing fault-revealing inputs and accelerating fault detection. By efficiently organizing test permutations, it uncovers all potential faults significantly faster across various datasets, model architectures, and adversarial attack techniques. Conclusion: Beyond improving fault detection, our method preserves input diversity and provides effective guidance for model retraining, further enhancing robustness. These advantages establish our approach as a powerful and practical solution for adversarial test prioritization in real-world DNN applications.
- Abstract(参考訳): コンテキスト: 敵入力に対するレジリエンスが最重要となる、Deep Neural Networks(DNN)はますます重要なアプリケーションにデプロイされている。
しかし、カバレッジベースであれ、信頼ベースであれ、既存のテストの優先順位付け手法は、多くの場合、最も欠陥を除去する入力を効率的に識別することができず、その実用性は制限される。
Aims: 本プロジェクトは,学習ベーステスト(LBT)と仮説と突然変異テストを統合することで,DNNの欠陥検出とモデル堅牢性を向上することを目的としている。
方法: 本手法は, アーキテクチャ固有の特徴や形式的検証に頼ることなく, モデル欠陥を暴露する確率の高い逆入力のサブセットを選択することで, 多様なDNNに適用可能である。
結果: 提案手法は, 耐故障入力の優先順位付けや故障検出の高速化において, ベースライン手法を常に超越していることを示す。
テストの置換を効率的に組織することにより、さまざまなデータセット、モデルアーキテクチャ、および敵攻撃テクニックで、潜在的なすべての障害を著しく高速に発見する。
結論: 故障検出の改善に加えて, 本手法は入力の多様性を保ち, モデル再訓練のための効果的なガイダンスを提供し, 堅牢性をさらに強化する。
これらの利点は、実世界のDNNアプリケーションにおいて、対戦型テスト優先化のための強力で実用的なソリューションとして、我々のアプローチを確立している。
関連論文リスト
- Calibrated Reasoning: An Explanatory Verifier for Dynamic and Efficient Problem-Solving [2.357104785442987]
そこで本稿では,評価スコアと関連する自然言語推論値を生成するペアワイズ説明検証手法を提案する。
我々の検証器は、ベスト・オブ・nやセルフ・リフレクションのようなテスト時間戦略の精度と効率を向上させる。
論文 参考訳(メタデータ) (2025-09-24T01:36:00Z) - Universal and Efficient Detection of Adversarial Data through Nonuniform Impact on Network Layers [24.585379549997743]
ディープニューラルネットワーク(DNN)は、雑音の予算が限られている敵の入力設計に弱いことで知られている。
既存の検出手法は、最先端の攻撃技術に対して非効率であるか、あるいはリアルタイム処理において計算的に非効率であることを示す。
そこで本研究では,異なるDNN層に対する攻撃の影響の度合いを解析することにより,敵の事例を検出する,新しい汎用的で効率的な手法を提案する。
論文 参考訳(メタデータ) (2025-06-25T20:30:28Z) - Towards Efficient and General-Purpose Few-Shot Misclassification Detection for Vision-Language Models [25.51735861729728]
現代のニューラルネットワークは、誤って分類された予測に対して過度に自信を示し、エラーを検出するための信頼度推定の必要性を強調している。
我々は、テキスト情報を利用した視覚言語モデル(VLM)を利用して、効率的で汎用的な誤分類検出フレームワークを確立する。
VLMのパワーを活用することで、MisDのためのFew-Shotプロンプト学習フレームワークであるFSMisDを構築し、スクラッチからトレーニングを控え、チューニング効率を向上させる。
論文 参考訳(メタデータ) (2025-03-26T12:31:04Z) - IT$^3$: Idempotent Test-Time Training [95.78053599609044]
ディープラーニングモデルは、トレーニングデータとテストデータの間の分散シフトのために、現実世界の環境にデプロイする際に苦労することが多い。
Idempotent Test-Time Training (IT$3$) は、現在のテストインスタンスのみを使用して、分散シフトへのオンザフライ適応を可能にする新しいアプローチである。
この結果から,イデオポテンスはドメインやアーキテクチャをまたいで一般化するテスト時間適応の普遍的原理を提供すると考えられる。
論文 参考訳(メタデータ) (2024-10-05T15:39:51Z) - FAST: Boosting Uncertainty-based Test Prioritization Methods for Neural Networks via Feature Selection [29.20073572683383]
本稿では,FeAture SelecTionをガイドとして,既存の優先順位付け手法を高速化するFASTを提案する。
FASTは、特定の機能がモデルの出力信頼度に影響を与えるノイズをもたらす可能性があるという洞察に基づいている。
モデルの正しい予測に対する各特徴の重要性を定量化し、ノイズのある特徴から動的に情報を抽出する。
論文 参考訳(メタデータ) (2024-09-13T18:13:09Z) - TWINS: A Fine-Tuning Framework for Improved Transferability of
Adversarial Robustness and Generalization [89.54947228958494]
本稿では,様々な分類タスクにおいて,逆向きに事前訓練されたモデルの微調整に焦点を当てる。
本稿では,TWINS(Two-WIng NormliSation)ファインチューニングフレームワークを提案する。
TWINSは、一般化とロバスト性の両方の観点から、幅広い画像分類データセットに有効であることが示されている。
論文 参考訳(メタデータ) (2023-03-20T14:12:55Z) - Domain Adaptation with Adversarial Training on Penultimate Activations [82.9977759320565]
教師なし領域適応(Unsupervised Domain Adaptation, UDA)の重要な目的は、ラベルなし対象データに対するモデル予測の信頼性を高めることである。
我々は,この戦略が,入力画像や中間特徴に対する敵対的訓練よりも予測信頼性を高める目的と,より効率的で相関性が高いことを示す。
論文 参考訳(メタデータ) (2022-08-26T19:50:46Z) - MEMO: Test Time Robustness via Adaptation and Augmentation [131.28104376280197]
テスト時間ロバスト化の問題、すなわちモデルロバスト性を改善するためにテストインプットを用いて検討する。
最近の先行研究ではテスト時間適応法が提案されているが、それぞれ追加の仮定を導入している。
モデルが確率的で適応可能な任意のテスト環境で使用できるシンプルなアプローチを提案する。
論文 参考訳(メタデータ) (2021-10-18T17:55:11Z) - Adaptive Anomaly Detection for Internet of Things in Hierarchical Edge
Computing: A Contextual-Bandit Approach [81.5261621619557]
階層エッジコンピューティング(HEC)を用いた適応型異常検出手法を提案する。
まず,複雑性を増した複数のDNNモデルを構築し,それぞれを対応するHEC層に関連付ける。
そこで我々は、文脈帯域問題として定式化され、強化学習ポリシーネットワークを用いて解決される適応モデル選択スキームを設計する。
論文 参考訳(メタデータ) (2021-08-09T08:45:47Z) - Detection of Insider Attacks in Distributed Projected Subgradient
Algorithms [11.096339082411882]
汎用ニューラルネットワークは悪質なエージェントの検出とローカライズに特に適していることを示す。
本稿では,連合学習における最先端のアプローチ,すなわち協調型ピアツーピア機械学習プロトコルを採用することを提案する。
シミュレーションでは,AIに基づく手法の有効性と有効性を検証するために,最小二乗問題を考える。
論文 参考訳(メタデータ) (2021-01-18T08:01:06Z) - Adversarial Distributional Training for Robust Deep Learning [53.300984501078126]
逆行訓練(AT)は、逆行例によるトレーニングデータを増やすことにより、モデルロバスト性を改善する最も効果的な手法の一つである。
既存のAT手法の多くは、敵の例を作らせるために特定の攻撃を採用しており、他の目に見えない攻撃に対する信頼性の低い堅牢性につながっている。
本稿では,ロバストモデル学習のための新しいフレームワークであるADTを紹介する。
論文 参考訳(メタデータ) (2020-02-14T12:36:59Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。