論文の概要: NeuRI: Diversifying DNN Generation via Inductive Rule Inference
- arxiv url: http://arxiv.org/abs/2302.02261v3
- Date: Mon, 4 Sep 2023 16:55:51 GMT
- ステータス: 処理完了
- システム内更新日: 2023-09-07 06:47:15.836906
- Title: NeuRI: Diversifying DNN Generation via Inductive Rule Inference
- Title(参考訳): NeuRI: 帰納的ルール推論によるDNN生成の多様化
- Authors: Jiawei Liu, Jinjun Peng, Yuyao Wang, Lingming Zhang
- Abstract要約: NeuRIは、有効な多様なディープラーニングモデルを生成するための、完全に自動化されたアプローチである。
NeuRIは、最先端のモデルレベルのファザよりも、PyTorchのブランチカバレッジを24%と15%改善する。
- 参考スコア(独自算出の注目度): 16.463237407360594
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Deep Learning (DL) is prevalently used in various industries to improve
decision-making and automate processes, driven by the ever-evolving DL
libraries and compilers. The correctness of DL systems is crucial for trust in
DL applications. As such, the recent wave of research has been studying the
automated synthesis of test-cases (i.e., DNN models and their inputs) for
fuzzing DL systems. However, existing model generators only subsume a limited
number of operators, lacking the ability to pervasively model operator
constraints. To address this challenge, we propose NeuRI, a fully automated
approach for generating valid and diverse DL models composed of hundreds of
types of operators. NeuRI adopts a three-step process: (i) collecting valid and
invalid API traces from various sources; (ii) applying inductive program
synthesis over the traces to infer the constraints for constructing valid
models; and (iii) using hybrid model generation which incorporates both
symbolic and concrete operators. Our evaluation shows that NeuRI improves
branch coverage of TensorFlow and PyTorch by 24% and 15% over the
state-of-the-art model-level fuzzers. NeuRI finds 100 new bugs for PyTorch and
TensorFlow in four months, with 81 already fixed or confirmed. Of these, 9 bugs
are labelled as high priority or security vulnerability, constituting 10% of
all high-priority bugs of the period. Open-source developers regard
error-inducing tests reported by us as "high-quality" and "common in practice".
- Abstract(参考訳): ディープラーニング(DL)は、意思決定を改善し、プロセスを自動化するために様々な業界で広く使われています。
DLシステムの正確性は、DLアプリケーションの信頼性に不可欠である。
このように、最近の研究の波は、ファジィDLシステムのためのテストケース(DNNモデルとその入力)の自動合成の研究である。
しかし、既存のモデルジェネレータは限られた数の演算子のみをサブスクライブし、演算子制約を広くモデル化する能力に欠ける。
この課題に対処するために,数百種類の演算子からなる有効かつ多様なDLモデルを生成するための,完全に自動化されたアプローチであるNeuRIを提案する。
NeuRIは3段階のプロセスを採用しています。
i) 各種情報源から有効かつ無効なAPIトレースを収集すること。
(ii)有効なモデルを構築するための制約を推測するために、トレースに帰納的プログラム合成を適用すること。
(iii)シンボリック演算子と具体演算子を併用したハイブリッドモデル生成の利用。
我々の評価によると、NeuRIは最先端のモデルレベルのファザよりもTensorFlowとPyTorchのブランチカバレッジを24%、15%改善している。
NeuRIは4ヶ月でPyTorchとTensorFlowの100の新しいバグを発見し、81がすでに修正または確認されている。
そのうち9つのバグは高い優先度またはセキュリティ上の脆弱性とラベル付けされており、この期間のすべての優先度の高いバグの10%を構成している。
オープンソース開発者は、私たちが報告したエラー誘発テストは"高品質"で"実際に一般的"だと考えている。
関連論文リスト
- Learning Better Representations From Less Data For Propositional Satisfiability [7.449724123186386]
我々は、命題が満足できるという2つの課題に対処するニュールレス(NeuRes)というニューロシンボリックなアプローチを提案する。
我々のモデルは、分類のみのために訓練されたモデルよりも優れた表現を学習し、データ効率はずっと高い。
このモデルでは,NuroSATよりも,正しく分類された例と証明された例の両方において,はるかに優れた性能が得られることを示す。
論文 参考訳(メタデータ) (2024-02-13T10:50:54Z) - Language Models for Novelty Detection in System Call Traces [0.27309692684728604]
本稿では,システムコールのシーケンスの確率分布に依存する新規性検出手法を提案する。
提案手法は手作りを最小限に抑え、多くの新規品においてFスコアとAuROCを95%以上達成する。
ソースコードとトレーニングされたモデルはGitHubで公開されており、データセットはZenodoで公開されている。
論文 参考訳(メタデータ) (2023-09-05T13:11:40Z) - Neural Abstractions [72.42530499990028]
本稿では,ニューラルネットワークを用いた非線形力学モデルの安全性検証手法を提案する。
提案手法は,既存のベンチマーク非線形モデルにおいて,成熟度の高いFlow*と同等に動作することを示す。
論文 参考訳(メタデータ) (2023-01-27T12:38:09Z) - Finding Deep-Learning Compilation Bugs with NNSmith [20.082492391396933]
本稿では,ディープラーニングコンパイラのバグ発見のためのファズテスト手法を提案する。
我々の中核的なアプローチは、(i)軽量な演算子仕様を使用して、多種多様な有効なモデルを生成し、(ii)勾配ベースの探索プロセスを作成し、(iii)差分テストによってバグを特定します。
我々は,この手法をNSmithで実施し,TVM,RT,ONNXRuntime,PyTorchの過去7ヶ月で65の新たなバグを発見した。そのうち52件が確認され,メンテナによって44件が修正されている。
論文 参考訳(メタデータ) (2022-07-26T17:39:51Z) - Coverage-Guided Tensor Compiler Fuzzing with Joint IR-Pass Mutation [20.519361342905775]
広範に使われているTVMテンソルコンパイラのためのファジィ手法であるTzerを提案する。
以上の結果から,Tzerはテンソルコンパイラテストにおいて,既存のファジリング技術よりも大幅に優れていることがわかった。
これまでTzerは、TVMの49の既知のバグを検出し、37のバグが確認され、25のバグが修正された。
論文 参考訳(メタデータ) (2022-02-21T01:48:11Z) - DapStep: Deep Assignee Prediction for Stack Trace Error rePresentation [61.99379022383108]
本稿では,バグトリアージ問題を解決するための新しいディープラーニングモデルを提案する。
モデルは、注目された双方向のリカレントニューラルネットワークと畳み込みニューラルネットワークに基づいている。
ランキングの質を向上させるために,バージョン管理システムのアノテーションから追加情報を利用することを提案する。
論文 参考訳(メタデータ) (2022-01-14T00:16:57Z) - Robust Implicit Networks via Non-Euclidean Contractions [63.91638306025768]
暗黙のニューラルネットワークは、精度の向上とメモリ消費の大幅な削減を示す。
彼らは不利な姿勢と収束の不安定さに悩まされる。
本論文は,ニューラルネットワークを高機能かつ頑健に設計するための新しい枠組みを提供する。
論文 参考訳(メタデータ) (2021-06-06T18:05:02Z) - Automatic Fault Detection for Deep Learning Programs Using Graph
Transformations [13.572917264310119]
ディープラーニングプログラムのためのモデルに基づく故障検出手法であるNeuraLintを提案する。
NeuraLintは、70.5%のリコールと100%の精度で、合成および実世界の両方の例の欠陥と設計上の問題を効果的に検出する。
提案するメタモデルはフィードフォワードニューラルネットワーク用に設計されているが、他のニューラルネットワークアーキテクチャをサポートするように拡張することができる。
論文 参考訳(メタデータ) (2021-05-17T18:06:11Z) - TACRED Revisited: A Thorough Evaluation of the TACRED Relation
Extraction Task [80.38130122127882]
TACREDはリレーショナル抽出(RE)において最も大きく、最も広く使われているクラウドソースデータセットの1つである
パフォーマンスの天井に到達したのか、改善の余地はあるのか?
ラベルエラーは絶対F1テストエラーの8%を占めており、例の50%以上を可逆化する必要がある。
論文 参考訳(メタデータ) (2020-04-30T15:07:37Z) - Learning to Encode Position for Transformer with Continuous Dynamical
Model [88.69870971415591]
本研究では,トランスフォーマーモデルなどの非リカレントモデルの位置情報をエンコードする新しい学習方法を提案する。
このような力学系による位置指数に沿った符号化結果の進化をモデル化する。
論文 参考訳(メタデータ) (2020-03-13T00:41:41Z) - AvgOut: A Simple Output-Probability Measure to Eliminate Dull Responses [97.50616524350123]
機能エンジニアリングなしで、どの発話やトークンが退屈であるかを動的に認識する対話モデルを構築します。
最初のモデルMinAvgOutは、各バッチの出力分布を通して、ダイバーシティスコアを直接最大化する。
第2のモデルであるラベルファインチューニング(LFT)は、多様性スコアによって連続的にスケールされたラベルをソースシーケンスにプリペイドし、多様性レベルを制御する。
3つ目のモデルであるRLは強化学習を採用し、多様性スコアを報奨信号として扱う。
論文 参考訳(メタデータ) (2020-01-15T18:32:06Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。