論文の概要: Towards Understanding Deep Learning Model in Image Recognition via Coverage Test
- arxiv url: http://arxiv.org/abs/2505.08814v1
- Date: Mon, 12 May 2025 08:25:55 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-05-15 21:44:09.232221
- Title: Towards Understanding Deep Learning Model in Image Recognition via Coverage Test
- Title(参考訳): 包絡テストによる画像認識における深層学習モデルの理解に向けて
- Authors: Wenkai Li, Xiaoqi Li, Yingjie Mao, Yishun Wang,
- Abstract要約: ディープニューラルネットワーク(DNN)は人工知能の分野において重要な役割を果たす。
本稿では,主機能,境界,階層,構造的カバレッジという,4つのカバレッジメトリクスの関係とパターンについて検討する。
- 参考スコア(独自算出の注目度): 0.7529855084362796
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Deep neural networks (DNNs) play a crucial role in the field of artificial intelligence, and their security-related testing has been a prominent research focus. By inputting test cases, the behavior of models is examined for anomalies, and coverage metrics are utilized to determine the extent of neurons covered by these test cases. With the widespread application and advancement of DNNs, different types of neural behaviors have garnered attention, leading to the emergence of various coverage metrics for neural networks. However, there is currently a lack of empirical research on these coverage metrics, specifically in analyzing the relationships and patterns between model depth, configuration information, and neural network coverage. This paper aims to investigate the relationships and patterns of four coverage metrics: primary functionality, boundary, hierarchy, and structural coverage. A series of empirical experiments were conducted, selecting LeNet, VGG, and ResNet as different DNN architectures, along with 10 models of varying depths ranging from 5 to 54 layers, to compare and study the relationships between different depths, configuration information, and various neural network coverage metrics. Additionally, an investigation was carried out on the relationships between modified decision/condition coverage and dataset size. Finally, three potential future directions are proposed to further contribute to the security testing of DNN Models.
- Abstract(参考訳): ディープニューラルネットワーク(DNN)は人工知能の分野において重要な役割を果たす。
テストケースを入力することにより、異常に対するモデルの挙動を調べ、これらのテストケースによってカバーされるニューロンの程度を決定するためにカバレッジメトリクスを利用する。
DNNの広範な適用と進歩により、さまざまなタイプの神経行動が注目され、ニューラルネットワークの様々なカバレッジメトリクスが出現した。
しかしながら、これらのカバレッジメトリクスに関する実証的な研究は、特にモデル深度、構成情報、ニューラルネットワークカバレッジの関係とパターンの分析において欠如している。
本稿では,主機能,境界,階層,構造的カバレッジという,4つのカバレッジメトリクスの関係とパターンについて検討する。
異なるDNNアーキテクチャとしてLeNet、VGG、ResNetを選択し、異なる深さと構成情報、およびさまざまなニューラルネットワークカバレッジメトリクス間の関係を比較調査する10のモデルとともに、一連の実証実験が行われた。
さらに,修正決定/条件カバレッジとデータセットサイズとの関係について検討した。
最後に、DNNモデルのセキュリティテストにさらに貢献するために、3つの将来的な方向性が提案されている。
関連論文リスト
- Cognitive Networks and Performance Drive fMRI-Based State Classification Using DNN Models [0.0]
我々は、個々の認知状態を分類するために、構造的に異なる2つのDNNモデルと相補的なDNNモデルを用いる。
アーキテクチャ上の違いにもかかわらず、両者のモデルが常に予測精度と個人の認知性能との間に堅牢な関係を生んでいることを示す。
論文 参考訳(メタデータ) (2024-08-14T15:25:51Z) - Designing deep neural networks for driver intention recognition [40.87622566719826]
本稿では,ニューラルネットワークアーキテクチャが現実世界の安全クリティカルなアプリケーションに与える影響について検討する。
2つの運転意図認識データセットに対して8つの探索戦略のセットを評価する。
論文 参考訳(メタデータ) (2024-02-07T12:54:15Z) - Structured Neural Networks for Density Estimation and Causal Inference [15.63518195860946]
ニューラルネットワークに構造を注入することで、入力のサブセットに関する不変性を満たす学習機能を実現することができる。
本稿では,ニューラルネットワークのマスキング経路を通じて構造を注入する構造ニューラルネットワーク(StrNN)を提案する。
論文 参考訳(メタデータ) (2023-11-03T20:15:05Z) - Automated Natural Language Explanation of Deep Visual Neurons with Large
Models [43.178568768100305]
本稿では,大きな基礎モデルを持つニューロンの意味的説明を生成するための,新しいポストホックフレームワークを提案する。
我々のフレームワークは、様々なモデルアーキテクチャやデータセット、自動化されたスケーラブルなニューロン解釈と互換性があるように設計されています。
論文 参考訳(メタデータ) (2023-10-16T17:04:51Z) - Quasi-orthogonality and intrinsic dimensions as measures of learning and
generalisation [55.80128181112308]
ニューラルネットワークの特徴空間の次元性と準直交性は、ネットワークの性能差別と共同して機能する可能性があることを示す。
本研究は, ネットワークの最終的な性能と, ランダムに初期化された特徴空間の特性との関係を示唆する。
論文 参考訳(メタデータ) (2022-03-30T21:47:32Z) - Epistemic Neural Networks [25.762699400341972]
原則として、アンサンブルに基づくアプローチは効果的な共同予測をもたらす。
しかし、大規模なアンサンブルを訓練する際の計算コストは禁じられる可能性がある。
従来のニューラルネットワークを補完するアーキテクチャであるEpinetを紹介します。
論文 参考訳(メタデータ) (2021-07-19T14:37:57Z) - Learning Interpretable Models for Coupled Networks Under Domain
Constraints [8.308385006727702]
脳ネットワークの構造的エッジと機能的エッジの相互作用に着目して,結合ネットワークの概念を検討する。
相互作用を推定しながらノイズ項にハードネットワークの制約を課す新しい定式化を提案する。
ヒトコネクトームプロジェクトから得られたマルチシェル拡散およびタスク誘発fMRIデータセットの手法を検証する。
論文 参考訳(メタデータ) (2021-04-19T06:23:31Z) - Are all outliers alike? On Understanding the Diversity of Outliers for
Detecting OODs [11.211251493663267]
本稿では,不確実性の発生源と性質に基づく OOD アウトプライヤ入力の分類について述べる。
我々は,異なる種類のアウトリーチに対応する複数の属性を用いた新しい統合検出手法を開発した。
論文 参考訳(メタデータ) (2021-03-23T15:33:58Z) - Anomaly Detection on Attributed Networks via Contrastive Self-Supervised
Learning [50.24174211654775]
本論文では,アトリビュートネットワーク上の異常検出のためのコントラスト型自己監視学習フレームワークを提案する。
このフレームワークは、新しいタイプのコントラストインスタンスペアをサンプリングすることで、ネットワークデータからのローカル情報を完全に活用します。
高次元特性と局所構造から情報埋め込みを学習するグラフニューラルネットワークに基づくコントラスト学習モデルを提案する。
論文 参考訳(メタデータ) (2021-02-27T03:17:20Z) - Spiking Neural Networks -- Part II: Detecting Spatio-Temporal Patterns [38.518936229794214]
スパイキングニューラルネットワーク(SNN)は、符号化された時間信号で情報を検出するユニークな能力を持つ。
SNNをリカレントニューラルネットワーク(RNN)とみなす支配的アプローチのためのモデルとトレーニングアルゴリズムについてレビューする。
スパイキングニューロンの確率モデルに頼り、勾配推定による局所学習規則の導出を可能にする別のアプローチについて述べる。
論文 参考訳(メタデータ) (2020-10-27T11:47:42Z) - Towards Interaction Detection Using Topological Analysis on Neural
Networks [55.74562391439507]
ニューラルネットワークでは、あらゆる相互作用する特徴は共通の隠蔽ユニットとの強い重み付けの接続に従う必要がある。
本稿では, 永続的ホモロジーの理論に基づいて, 相互作用強度を定量化するための新しい尺度を提案する。
PID(Persistence Interaction Detection)アルゴリズムを開発した。
論文 参考訳(メタデータ) (2020-10-25T02:15:24Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。