論文の概要: Generating Realistic, Diverse, and Fault-Revealing Inputs with Latent Space Interpolation for Testing Deep Neural Networks
- arxiv url: http://arxiv.org/abs/2503.17630v1
- Date: Sat, 22 Mar 2025 03:19:55 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-03-25 14:39:33.793404
- Title: Generating Realistic, Diverse, and Fault-Revealing Inputs with Latent Space Interpolation for Testing Deep Neural Networks
- Title(参考訳): 深部ニューラルネットワーク試験のための潜時空間補間を用いた実数, ディバース, フォールトリーブリング入力の生成
- Authors: Bin Duan, Matthew B. Dwyer, Guowei Yang,
- Abstract要約: ARGUSは、現実的で多種多様でフォールトレベリングなテスト入力を生成するブラックボックス方式である。
ARGUSは、ターゲットデータセットに対する現実的で多様な敵のサンプルを生成するのに優れています。
モデル再トレーニングに対向サンプルを使用することで、モデルの分類精度が向上する。
- 参考スコア(独自算出の注目度): 23.018072013940245
- License:
- Abstract: Deep Neural Networks (DNNs) have been widely employed across various domains, including safety-critical systems, necessitating comprehensive testing to ensure their reliability. Although numerous DNN model testing methods have been proposed to generate adversarial samples that are capable of revealing faults, existing methods typically perturb samples in the input space and then mutate these based on feedback from the DNN model. These methods often result in test samples that are not realistic and with low-probability reveal faults. To address these limitations, we propose a black-box DNN test input generation method, ARGUS, to generate realistic, diverse, and fault-revealing test inputs. ARGUS first compresses samples into a continuous latent space and then perturbs the original samples by interpolating these with samples of different classes. Subsequently, we employ a vector quantizer and decoder to reconstruct adversarial samples back into the input space. Additionally, we employ discriminators both in the latent space and in the input space to ensure the realism of the generated samples. Evaluation of ARGUS in comparison with state-of-the-art black-box testing and white-box testing methods, shows that ARGUS excels in generating realistic and diverse adversarial samples relative to the target dataset, and ARGUS successfully perturbs all original samples and achieves up to 4 times higher error rate than the best baseline method. Furthermore, using these adversarial samples for model retraining can improve model classification accuracy.
- Abstract(参考訳): ディープニューラルネットワーク(DNN)は、安全クリティカルなシステムを含むさまざまな領域で広く採用されており、信頼性を確保するために包括的なテストを必要としている。
多くのDNNモデル試験法が、障害を明らかにすることができる敵サンプルを生成するために提案されているが、既存の手法は通常、入力空間のサンプルを摂動させ、DNNモデルからのフィードバックに基づいて変更する。
これらの手法はしばしば、現実的ではなく、確率の低いテストサンプルが欠陥を露呈する。
これらの制約に対処するため,本研究では,現実的で多種多様でフォールトレベリングなテスト入力を生成するために,ブラックボックスのDNNテスト入力生成手法ARGUSを提案する。
ARGUSはまずサンプルを連続的な潜伏空間に圧縮し、その後異なるクラスのサンプルと補間することで元のサンプルを摂動する。
その後,ベクトル量子化器とデコーダを用いて,逆数サンプルを入力空間に再構成する。
さらに、潜在空間と入力空間の両方で識別器を用いて、生成されたサンプルの現実性を保証する。
最先端のブラックボックステストやホワイトボックステスト手法と比較してARGUSの評価は、ARGUSがターゲットデータセットに対して現実的で多様な敵のサンプルを生成するのに優れており、ARGUSが元のサンプルをすべて乱し、最高のベースライン法よりも最大4倍のエラー率を達成することを示す。
さらに、モデル再訓練にこれらの逆数サンプルを使用することで、モデルの分類精度を向上させることができる。
関連論文リスト
- DOTA: Distributional Test-Time Adaptation of Vision-Language Models [52.98590762456236]
トレーニングフリーテスト時動的アダプタ(TDA)は、この問題に対処するための有望なアプローチである。
単体テスト時間適応法(Dota)の簡易かつ効果的な方法を提案する。
Dotaは継続的にテストサンプルの分布を推定し、モデルがデプロイメント環境に継続的に適応できるようにします。
論文 参考訳(メタデータ) (2024-09-28T15:03:28Z) - Robust Black-box Testing of Deep Neural Networks using Co-Domain Coverage [18.355332126489756]
信頼できるデプロイメントには、マシンラーニングモデルの厳格なテストが必要です。
我々は、ディープニューラルネットワーク(DNN)の堅牢なテストのためのテストスーツを生成するための新しいブラックボックスアプローチを提案する。
論文 参考訳(メタデータ) (2024-08-13T09:42:57Z) - Hypothesis-Driven Deep Learning for Out of Distribution Detection [0.8191518216608217]
本稿では,新しいサンプルがInDなのかOoDなのかを定量化する仮説駆動型手法を提案する。
細菌のサンプルを学習した深層学習モデルに適応させ,InDとOoDの潜伏反応の解釈的差異を明らかにする。
論文 参考訳(メタデータ) (2024-03-21T01:06:47Z) - Breaking Free: How to Hack Safety Guardrails in Black-Box Diffusion Models! [52.0855711767075]
EvoSeedは、フォトリアリスティックな自然対向サンプルを生成するための進化戦略に基づくアルゴリズムフレームワークである。
我々は,CMA-ESを用いて初期種ベクトルの探索を最適化し,条件付き拡散モデルで処理すると,自然逆数サンプルをモデルで誤分類する。
実験の結果, 生成した対向画像は画像品質が高く, 安全分類器を通過させることで有害なコンテンツを生成する懸念が高まっていることがわかった。
論文 参考訳(メタデータ) (2024-02-07T09:39:29Z) - Continual Test-time Domain Adaptation via Dynamic Sample Selection [38.82346845855512]
本稿では,連続テスト時間領域適応(CTDA)のための動的サンプル選択法を提案する。
誤情報を誤用するリスクを低減するため,高品質と低品質の両方のサンプルに共同正負の学習を適用した。
私たちのアプローチは3Dポイントのクラウドドメインでも評価されており、その汎用性とより広範な適用可能性を示している。
論文 参考訳(メタデータ) (2023-10-05T06:35:21Z) - TTAPS: Test-Time Adaption by Aligning Prototypes using Self-Supervision [70.05605071885914]
本研究では,単体テストサンプルに適用可能な自己教師付きトレーニングアルゴリズムSwaVの新たな改良を提案する。
ベンチマークデータセットCIFAR10-Cにおいて,本手法の有効性を示す。
論文 参考訳(メタデータ) (2022-05-18T05:43:06Z) - Normality-Calibrated Autoencoder for Unsupervised Anomaly Detection on
Data Contamination [4.547161155818913]
正規度校正オートエンコーダ(NCAE)は、汚染されたデータセットの異常検出性能を高めることができる。
NCAEは、エントロピーの低い潜在空間から高信頼な正規サンプルを逆向きに生成する。
論文 参考訳(メタデータ) (2021-10-28T00:23:01Z) - DAAIN: Detection of Anomalous and Adversarial Input using Normalizing
Flows [52.31831255787147]
我々は、アウト・オブ・ディストリビューション(OOD)インプットと敵攻撃(AA)を検出する新しい手法であるDAINを導入する。
本手法は,ニューラルネットワークの内部動作を監視し,活性化分布の密度推定器を学習する。
当社のモデルは,特別なアクセラレータを必要とせずに,効率的な計算とデプロイが可能な単一のGPUでトレーニングすることが可能です。
論文 参考訳(メタデータ) (2021-05-30T22:07:13Z) - Attribute-Guided Adversarial Training for Robustness to Natural
Perturbations [64.35805267250682]
本稿では,属性空間への分類器の露出を最大化するために,新しいサンプルを生成することを学習する逆学習手法を提案する。
我々のアプローチは、ディープニューラルネットワークが自然に発生する摂動に対して堅牢であることを可能にする。
論文 参考訳(メタデータ) (2020-12-03T10:17:30Z) - Black-box Adversarial Sample Generation Based on Differential Evolution [18.82850158275813]
我々は、ディープニューラルネットワーク(DNN)の堅牢性をテストするブラックボックス手法を提案する。
この手法はターゲットDNNの構造や重量に関する知識を一切必要としない。
実験結果から,本手法は逆検体の生成に100%成功し,誤分類を誘発できることが示唆された。
論文 参考訳(メタデータ) (2020-07-30T08:43:45Z) - SUOD: Accelerating Large-Scale Unsupervised Heterogeneous Outlier
Detection [63.253850875265115]
外乱検出(OD)は、一般的なサンプルから異常物体を識別するための機械学習(ML)タスクである。
そこで我々は,SUODと呼ばれるモジュール型加速度システムを提案する。
論文 参考訳(メタデータ) (2020-03-11T00:22:50Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。