論文の概要: Feature-Aware Test Generation for Deep Learning Models
- arxiv url: http://arxiv.org/abs/2601.14081v1
- Date: Tue, 20 Jan 2026 15:41:06 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-01-21 22:47:23.389053
- Title: Feature-Aware Test Generation for Deep Learning Models
- Title(参考訳): ディープラーニングモデルのための特徴認識テスト生成
- Authors: Xingcheng Chen, Oliver Weissl, Andrea Stocco,
- Abstract要約: 本研究では,視覚に基づくディープラーニング(DL)モデルのための機能認識型テスト生成フレームワークであるTectを紹介する。
潜在空間内で非絡み合ったセマンティック属性を摂動することで入力を生成する。
行動シフトにつながる特徴を特定し、セマンティック属性に視覚言語モデルを使用する。
- 参考スコア(独自算出の注目度): 0.5368630420272898
- License: http://creativecommons.org/licenses/by-sa/4.0/
- Abstract: As deep learning models are widely used in software systems, test generation plays a crucial role in assessing the quality of such models before deployment. To date, the most advanced test generators rely on generative AI to synthesize inputs; however, these approaches remain limited in providing semantic insight into the causes of misbehaviours and in offering fine-grained semantic controllability over the generated inputs. In this paper, we introduce Detect, a feature-aware test generation framework for vision-based deep learning (DL) models that systematically generates inputs by perturbing disentangled semantic attributes within the latent space. Detect perturbs individual latent features in a controlled way and observes how these changes affect the model's output. Through this process, it identifies which features lead to behavior shifts and uses a vision-language model for semantic attribution. By distinguishing between task-relevant and irrelevant features, Detect applies feature-aware perturbations targeted for both generalization and robustness. Empirical results across image classification and detection tasks show that Detect generates high-quality test cases with fine-grained control, reveals distinct shortcut behaviors across model architectures (convolutional and transformer-based), and bugs that are not captured by accuracy metrics. Specifically, Detect outperforms a state-of-the-art test generator in decision boundary discovery and a leading spurious feature localization method in identifying robustness failures. Our findings show that fully fine-tuned convolutional models are prone to overfitting on localized cues, such as co-occurring visual traits, while weakly supervised transformers tend to rely on global features, such as environmental variances. These findings highlight the value of interpretable and feature-aware testing in improving DL model reliability.
- Abstract(参考訳): ディープラーニングモデルはソフトウェアシステムで広く使われているため、テスト生成はデプロイ前にそのようなモデルの品質を評価する上で重要な役割を果たす。
現在まで、最も先進的なテストジェネレータは、入力を合成するために生成AIに依存しているが、これらのアプローチは、誤った振る舞いの原因に関する意味的な洞察を提供することと、生成された入力に対してきめ細かい意味的な制御性を提供することに限られている。
本稿では,視覚に基づく深層学習(DL)モデルのための特徴認識型テスト生成フレームワークであるTectを導入し,潜在空間内で乱れのあるセマンティック属性を摂動することで,インプットを体系的に生成する。
制御された方法で個々の潜伏する特徴を検出し、これらの変化がモデルの出力にどのように影響するかを観察する。
このプロセスを通じて、どの特徴が行動シフトにつながるかを特定し、セマンティック属性に視覚言語モデルを使用する。
タスク関連機能と非関連機能とを区別することにより,汎用性とロバスト性の両方を目標とした特徴認識摂動を適用した。
画像分類と検出タスクにわたる実証的な結果から、ディテクターはきめ細かい制御で高品質なテストケースを生成し、モデルアーキテクチャ(畳み込みとトランスフォーマーベース)間で異なるショートカットの挙動を明らかにし、精度の指標で捉えられないバグを明らかにしている。
具体的には、決定境界探索における最先端のテストジェネレータと、ロバストネス障害の同定における先進的な特徴ローカライズ手法に優れる。
この結果から, 完全微調整畳み込みモデルでは, 視覚特性の共起などの局所的な特徴に過度に適合する傾向がみられ, 弱い教師付きトランスフォーマーは, 環境変動などのグローバルな特徴に依存する傾向にあることがわかった。
以上の結果から,DLモデルの信頼性向上における解釈性および特徴認識テストの価値が示唆された。
関連論文リスト
- SALVE: Sparse Autoencoder-Latent Vector Editing for Mechanistic Control of Neural Networks [0.0]
SALVEは機械的解釈可能性とモデル編集を橋渡しするフレームワークである。
私たちは、監督なしでスパースでモデルネイティブな機能ベースを学びます。
Grad-FAM(英語版)によりこれらの特徴を検証した。
論文 参考訳(メタデータ) (2025-12-17T20:06:03Z) - Automated Detection of Visual Attribute Reliance with a Self-Reflective Agent [58.90049897180927]
視覚モデルにおける視覚的特徴の意図しない依存を検出するための自動フレームワークを提案する。
自己反射エージェントは、モデルが依存する可能性のある視覚特性に関する仮説を生成し、テストする。
我々は,視覚特性の多様さを示すために設計された130モデルの新しいベンチマークに対して,我々のアプローチを評価した。
論文 参考訳(メタデータ) (2025-10-24T17:59:02Z) - Counterfactual Explanation for Auto-Encoder Based Time-Series Anomaly Detection [0.3199881502576702]
オートエンコーダは意思決定プロセスに固有の不透明さを示し、大規模な実践を妨げている。
本研究では,機能セレクタを用いて特徴を抽出し,モデル出力にコンテキストを与える。
実験結果から,提案手法がモデル決定過程に有意義かつ有意義な洞察を与える可能性が示唆された。
論文 参考訳(メタデータ) (2025-01-03T19:30:11Z) - A Hybrid Framework for Statistical Feature Selection and Image-Based Noise-Defect Detection [55.2480439325792]
本稿では,統計的特徴選択と分類技術を統合し,欠陥検出精度を向上させるハイブリッドフレームワークを提案する。
工業画像から抽出した55個の特徴を統計的手法を用いて解析した。
これらの手法をフレキシブルな機械学習アプリケーションに統合することにより、検出精度を改善し、偽陽性や誤分類を減らす。
論文 参考訳(メタデータ) (2024-12-11T22:12:21Z) - Understanding and Improving Training-Free AI-Generated Image Detections with Vision Foundation Models [68.90917438865078]
顔合成と編集のためのディープフェイク技術は、生成モデルに重大なリスクをもたらす。
本稿では,モデルバックボーン,タイプ,データセット間で検出性能がどう変化するかを検討する。
本稿では、顔画像のパフォーマンスを向上させるContrastive Blurと、ノイズタイプのバイアスに対処し、ドメイン間のパフォーマンスのバランスをとるMINDERを紹介する。
論文 参考訳(メタデータ) (2024-11-28T13:04:45Z) - Unsupervised Model Diagnosis [49.36194740479798]
本稿では,ユーザガイドを使わずに,意味論的対実的説明を生成するために,Unsupervised Model Diagnosis (UMO)を提案する。
提案手法は意味論における変化を特定し可視化し,その変化を広範囲なテキストソースの属性と照合する。
論文 参考訳(メタデータ) (2024-10-08T17:59:03Z) - ADT: Agent-based Dynamic Thresholding for Anomaly Detection [4.356615197661274]
本稿では,エージェントベースの動的しきい値処理(ADT)フレームワークを提案する。
本研究では,自動エンコーダを用いて特徴表現を取得し,複雑な入力データに対する異常スコアを生成する。
ADTはオートエンコーダの異常スコアを利用して閾値を適応的に調整することができる。
論文 参考訳(メタデータ) (2023-12-03T19:07:30Z) - An Improved Anomaly Detection Model for Automated Inspection of Power Line Insulators [0.0]
電力系統の信頼性を確保するためには絶縁体の検査が重要である。
検査プロセスを自動化するために、ディープラーニングがますます活用されています。
本稿では,異常検出とオブジェクト検出の2段階的アプローチを提案する。
論文 参考訳(メタデータ) (2023-11-14T11:36:20Z) - DirectDebug: Automated Testing and Debugging of Feature Models [55.41644538483948]
変数モデル(例えば、特徴モデル)は、ソフトウェアアーティファクトの変数と共通性を表現する一般的な方法である。
複雑でしばしば大規模な機能モデルは欠陥になりうる、すなわち、ソフトウェアアーチファクトの期待される変動特性を表現しない。
論文 参考訳(メタデータ) (2021-02-11T11:22:20Z) - Unsupervised Anomaly Detection with Adversarial Mirrored AutoEncoders [51.691585766702744]
本稿では,識別器のミラー化ワッサースタイン損失を利用して,よりセマンティックレベルの再構築を行う逆自動エンコーダの変種を提案する。
我々は,再建基準の代替として,異常スコアの代替尺度を提案した。
提案手法は,OOD検出ベンチマークにおける異常検出の最先端手法よりも優れている。
論文 参考訳(メタデータ) (2020-03-24T08:26:58Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。