論文の概要: Automatic Fault Detection for Deep Learning Programs Using Graph
Transformations
- arxiv url: http://arxiv.org/abs/2105.08095v2
- Date: Mon, 31 May 2021 02:17:12 GMT
- ステータス: 処理完了
- システム内更新日: 2023-03-30 22:06:12.438658
- Title: Automatic Fault Detection for Deep Learning Programs Using Graph
Transformations
- Title(参考訳): グラフ変換を用いたディープラーニングプログラムの自動障害検出
- Authors: Amin Nikanjam, Houssem Ben Braiek, Mohammad Mehdi Morovati, Foutse
Khomh
- Abstract要約: ディープラーニングプログラムのためのモデルに基づく故障検出手法であるNeuraLintを提案する。
NeuraLintは、70.5%のリコールと100%の精度で、合成および実世界の両方の例の欠陥と設計上の問題を効果的に検出する。
提案するメタモデルはフィードフォワードニューラルネットワーク用に設計されているが、他のニューラルネットワークアーキテクチャをサポートするように拡張することができる。
- 参考スコア(独自算出の注目度): 13.572917264310119
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Nowadays, we are witnessing an increasing demand in both corporates and
academia for exploiting Deep Learning (DL) to solve complex real-world
problems. A DL program encodes the network structure of a desirable DL model
and the process by which the model learns from the training dataset. Like any
software, a DL program can be faulty, which implies substantial challenges of
software quality assurance, especially in safety-critical domains. It is
therefore crucial to equip DL development teams with efficient fault detection
techniques and tools. In this paper, we propose NeuraLint, a model-based fault
detection approach for DL programs, using meta-modelling and graph
transformations. First, we design a meta-model for DL programs that includes
their base skeleton and fundamental properties. Then, we construct a
graph-based verification process that covers 23 rules defined on top of the
meta-model and implemented as graph transformations to detect faults and design
inefficiencies in the generated models (i.e., instances of the meta-model).
First, the proposed approach is evaluated by finding faults and design
inefficiencies in 28 synthesized examples built from common problems reported
in the literature. Then NeuraLint successfully finds 64 faults and design
inefficiencies in 34 real-world DL programs extracted from Stack Overflow posts
and GitHub repositories. The results show that NeuraLint effectively detects
faults and design issues in both synthesized and real-world examples with a
recall of 70.5 % and a precision of 100 %. Although the proposed meta-model is
designed for feedforward neural networks, it can be extended to support other
neural network architectures such as recurrent neural networks. Researchers can
also expand our set of verification rules to cover more types of issues in DL
programs.
- Abstract(参考訳): 今日では、複雑な現実世界の問題を解決するために、ディープラーニング(DL)を活用する企業や学界の需要が高まっています。
dlプログラムは、望ましいdlモデルのネットワーク構造と、モデルがトレーニングデータセットから学習するプロセスとを符号化する。
他のソフトウェアと同様に、DLプログラムは欠陥があり、特に安全クリティカルな領域において、ソフトウェア品質保証の重大な課題を示唆する。
そのため、DL開発チームに効率的な障害検出技術とツールを提供することが不可欠である。
本稿では,メタモデリングとグラフ変換を用いたDLプログラムのモデルベース故障検出手法であるNeuraLintを提案する。
まず,基本骨格と基本特性を含むDLプログラムのメタモデルの設計を行う。
次に,メタモデル上に定義された23のルールを網羅し,グラフ変換として実装し,生成されたモデル(メタモデルのインスタンス)の欠陥や設計の非効率性を検出する。
まず, 文献に報告されている共通問題から構築した28種類の合成例において, 欠点と設計非効率性を見出すことにより, 提案手法の評価を行った。
そしてNeuraLintは、Stack OverflowポストとGitHubリポジトリから抽出された34の現実世界のDLプログラムにおいて、64の障害と設計の非効率性を発見した。
その結果,neuralintは70.5%のリコールと100%の精度で,合成例と実例の両方において,障害や設計上の問題を効果的に検出できることがわかった。
提案するメタモデルはフィードフォワードニューラルネットワーク用に設計されているが、リカレントニューラルネットワークなどの他のニューラルネットワークアーキテクチャをサポートするように拡張することができる。
研究者は、DLプログラムのさまざまな問題をカバーするために、検証ルールのセットを拡張することもできます。
関連論文リスト
- DFA-GNN: Forward Learning of Graph Neural Networks by Direct Feedback Alignment [57.62885438406724]
グラフニューラルネットワークは、様々なアプリケーションにまたがる強力なパフォーマンスで認識されている。
BPには、その生物学的妥当性に挑戦する制限があり、グラフベースのタスクのためのトレーニングニューラルネットワークの効率、スケーラビリティ、並列性に影響を与える。
半教師付き学習のケーススタディを用いて,GNNに適した新しい前方学習フレームワークであるDFA-GNNを提案する。
論文 参考訳(メタデータ) (2024-06-04T07:24:51Z) - Sequential Graph Neural Networks for Source Code Vulnerability
Identification [5.582101184758527]
我々は,C/C++ソースコードの脆弱性データセットを適切にキュレートし,モデルの開発を支援する。
また,多数のコード意味表現を学習するための連続グラフニューラルネットワーク(SEGNN)という,グラフニューラルネットワークに基づく学習フレームワークを提案する。
グラフ分類設定における2つのデータセットと4つのベースライン手法による評価は、最先端の結果を示している。
論文 参考訳(メタデータ) (2023-05-23T17:25:51Z) - Deep Graph Reprogramming [112.34663053130073]
グラフニューラルネットワーク(GNN)に適したタスク再利用モデル「ディープグラフ再プログラミング」
本稿では,モデル再プログラミングパラダイムと並行して,革新的なデータ再プログラミングパラダイムを提案する。
論文 参考訳(メタデータ) (2023-04-28T02:04:29Z) - NeuRI: Diversifying DNN Generation via Inductive Rule Inference [16.463237407360594]
NeuRIは、有効な多様なディープラーニングモデルを生成するための、完全に自動化されたアプローチである。
NeuRIは、最先端のモデルレベルのファザよりも、PyTorchのブランチカバレッジを24%と15%改善する。
論文 参考訳(メタデータ) (2023-02-04T23:42:07Z) - Comprehensive Graph Gradual Pruning for Sparse Training in Graph Neural
Networks [52.566735716983956]
本稿では,CGPと呼ばれるグラフの段階的プルーニングフレームワークを動的にGNNに提案する。
LTHに基づく手法とは異なり、提案手法では再学習を必要とせず、計算コストを大幅に削減する。
提案手法は,既存の手法の精度を一致させたり,あるいは超えたりしながら,トレーニングと推論の効率を大幅に向上させる。
論文 参考訳(メタデータ) (2022-07-18T14:23:31Z) - CodeRL: Mastering Code Generation through Pretrained Models and Deep
Reinforcement Learning [92.36705236706678]
CodeRLは、事前訓練されたLMと深層強化学習によるプログラム合成タスクのための新しいフレームワークである。
推論中、我々は重要なサンプリング戦略を持つ新しい生成手順を導入する。
モデルバックボーンについては,CodeT5のエンコーダデコーダアーキテクチャを拡張し,学習目標を拡張した。
論文 参考訳(メタデータ) (2022-07-05T02:42:15Z) - Precise Learning of Source Code Contextual Semantics via Hierarchical
Dependence Structure and Graph Attention Networks [28.212889828892664]
階層的な依存関係を組み込んだ新しいソースコードモデルを提案する。
本稿では,基本ブロックの構文構造,すなわち対応するASTをソースコードモデルに導入し,十分な情報を提供する。
その結果,本モデルではパラメータのスケールを50%削減し,プログラム分類タスクの精度を4%向上させることができた。
論文 参考訳(メタデータ) (2021-11-20T04:03:42Z) - Software Vulnerability Detection via Deep Learning over Disaggregated
Code Graph Representation [57.92972327649165]
この研究は、コードコーパスから安全でないパターンを自動的に学習するためのディープラーニングアプローチを探求する。
コードには解析を伴うグラフ構造が自然に認められるため,プログラムの意味的文脈と構造的規則性の両方を利用する新しいグラフニューラルネットワーク(GNN)を開発する。
論文 参考訳(メタデータ) (2021-09-07T21:24:36Z) - Design Smells in Deep Learning Programs: An Empirical Study [9.112172220055431]
DL(Deep Learning)プログラムにおける設計の臭いは、DLコンポーネントの開発時に行われる設計や構成上の判断が貧弱である。
我々は、人気のあるDLアーキテクチャ、すなわちディープフィードフォワードニューラルネットワークのための8つの設計臭いのカタログを提示する。
論文 参考訳(メタデータ) (2021-07-05T21:26:05Z) - An Introduction to Robust Graph Convolutional Networks [71.68610791161355]
本論文では, 誤りのある単一ビューあるいは複数ビューのデータに対して, 新たなロバストグラフ畳み込みニューラルネットワークを提案する。
従来のグラフ畳み込みネットワークにAutoencodersを介して余分なレイヤを組み込むことで、典型的なエラーモデルを明示的に特徴付けおよび処理します。
論文 参考訳(メタデータ) (2021-03-27T04:47:59Z) - Learning Variational Data Assimilation Models and Solvers [34.22350850350653]
データ同化のためのエンドツーエンドニューラルネットワークアーキテクチャを導入する。
提案するエンドツーエンド学習アーキテクチャの重要な特徴は、教師なし戦略と教師なし戦略の両方を用いてNNモデルをトレーニングできることである。
論文 参考訳(メタデータ) (2020-07-25T14:28:48Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。