論文の概要: Finding Deep-Learning Compilation Bugs with NNSmith
- arxiv url: http://arxiv.org/abs/2207.13066v1
- Date: Tue, 26 Jul 2022 17:39:51 GMT
- ステータス: 処理完了
- システム内更新日: 2022-07-27 13:29:51.458363
- Title: Finding Deep-Learning Compilation Bugs with NNSmith
- Title(参考訳): NNSmithを用いたDeep-Learning Compilation Bugsの探索
- Authors: Jiawei Liu, Jinkun Lin, Fabian Ruffy, Cheng Tan, Jinyang Li, Aurojit
Panda, Lingming Zhang
- Abstract要約: 本稿では,ディープラーニングコンパイラのバグ発見のためのファズテスト手法を提案する。
我々の中核的なアプローチは、(i)軽量な演算子仕様を使用して、多種多様な有効なモデルを生成し、(ii)勾配ベースの探索プロセスを作成し、(iii)差分テストによってバグを特定します。
我々は,この手法をNSmithで実施し,TVM,RT,ONNXRuntime,PyTorchの過去7ヶ月で65の新たなバグを発見した。そのうち52件が確認され,メンテナによって44件が修正されている。
- 参考スコア(独自算出の注目度): 20.082492391396933
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Deep-learning (DL) compilers such as TVM and TensorRT are increasingly used
to optimize deep neural network (DNN) models to meet performance, resource
utilization and other requirements. Bugs in these compilers can produce
optimized models whose semantics differ from the original models, and produce
incorrect results impacting the correctness of down stream applications.
However, finding bugs in these compilers is challenging due to their
complexity. In this work, we propose a new fuzz testing approach for finding
bugs in deep-learning compilers. Our core approach uses (i) light-weight
operator specifications to generate diverse yet valid DNN models allowing us to
exercise a large part of the compiler's transformation logic; (ii) a
gradient-based search process for finding model inputs that avoid any
floating-point exceptional values during model execution, reducing the chance
of missed bugs or false alarms; and (iii) differential testing to identify
bugs. We implemented this approach in NNSmith which has found 65 new bugs in
the last seven months for TVM, TensorRT, ONNXRuntime, and PyTorch. Of these 52
have been confirmed and 44 have been fixed by project maintainers.
- Abstract(参考訳): TVMやTensorRTといったディープラーニング(DL)コンパイラは、パフォーマンスやリソース利用、その他の要件を満たすために、ディープニューラルネットワーク(DNN)モデルを最適化するためにますます使用されている。
これらのコンパイラのバグは、セマンティクスが元のモデルと異なる最適化されたモデルを生成し、ダウンストリームアプリケーションの正確性に影響を与える不正確な結果を生成することができる。
しかし、これらのコンパイラのバグを見つけるのは、その複雑さのため難しい。
本研究では,ディープラーニングコンパイラにおけるバグ検出のための新しいfuzzテスト手法を提案する。
私たちの中核的なアプローチは
(i)多種多様な有効なDNNモデルを生成する軽量な演算子仕様により、コンパイラの変換ロジックの大部分を動作させることができる。
(二)モデル実行中に浮動小数点の例外的な値を避け、バグや誤報の可能性を低減したモデル入力を見つけるための勾配に基づく探索方法。
(iii)バグを特定するためのディファレンシャルテスト。
我々はこの手法をNSmithで実装し、TVM、TensorRT、ONNXRuntime、PyTorchの過去7ヶ月で65の新たなバグを発見した。
52件が確認されており、44件がプロジェクトメンテナによって修正されている。
関連論文リスト
- SYNTHEVAL: Hybrid Behavioral Testing of NLP Models with Synthetic CheckLists [59.08999823652293]
我々は,NLPモデルの包括的評価のために,SyntheVALを提案する。
最後の段階では、人間の専門家が困難な例を調査し、手動でテンプレートを設計し、タスク固有のモデルが一貫して示す障害の種類を特定します。
我々は、感情分析と有害言語検出という2つの分類課題にSynTHEVALを適用し、これらの課題における強力なモデルの弱点を特定するのに、我々のフレームワークが有効であることを示す。
論文 参考訳(メタデータ) (2024-08-30T17:41:30Z) - SINDER: Repairing the Singular Defects of DINOv2 [61.98878352956125]
大規模なデータセットでトレーニングされたビジョントランスフォーマーモデルは、抽出したパッチトークンにアーティファクトを表示することが多い。
本稿では,小さなデータセットのみを用いて構造欠陥を補正するスムーズなスムーズな正規化を提案する。
論文 参考訳(メタデータ) (2024-07-23T20:34:23Z) - DebugBench: Evaluating Debugging Capability of Large Language Models [80.73121177868357]
DebugBench - LLM(Large Language Models)のベンチマーク。
C++、Java、Pythonの4つの主要なバグカテゴリと18のマイナータイプをカバーする。
ゼロショットシナリオで2つの商用および4つのオープンソースモデルを評価する。
論文 参考訳(メタデータ) (2024-01-09T15:46:38Z) - Do Language Models Learn Semantics of Code? A Case Study in
Vulnerability Detection [7.725755567907359]
我々は,解釈可能性ツール,注意分析,相互作用行列解析という3つの異なる手法を用いてモデルを解析する。
モデル入力内のバグセマンティクスをハイライトする2つのアノテーション手法を開発した。
この結果から,より複雑なパスベースのバグセマンティクスを学習する上で,モデルにバグセマンティクスの情報を提供し,モデルがそれに参加することができることを示唆した。
論文 参考訳(メタデータ) (2023-11-07T16:31:56Z) - NeuRI: Diversifying DNN Generation via Inductive Rule Inference [16.463237407360594]
NeuRIは、有効な多様なディープラーニングモデルを生成するための、完全に自動化されたアプローチである。
NeuRIは、最先端のモデルレベルのファザよりも、PyTorchのブランチカバレッジを24%と15%改善する。
論文 参考訳(メタデータ) (2023-02-04T23:42:07Z) - Coverage-Guided Tensor Compiler Fuzzing with Joint IR-Pass Mutation [20.519361342905775]
広範に使われているTVMテンソルコンパイラのためのファジィ手法であるTzerを提案する。
以上の結果から,Tzerはテンソルコンパイラテストにおいて,既存のファジリング技術よりも大幅に優れていることがわかった。
これまでTzerは、TVMの49の既知のバグを検出し、37のバグが確認され、25のバグが修正された。
論文 参考訳(メタデータ) (2022-02-21T01:48:11Z) - DapStep: Deep Assignee Prediction for Stack Trace Error rePresentation [61.99379022383108]
本稿では,バグトリアージ問題を解決するための新しいディープラーニングモデルを提案する。
モデルは、注目された双方向のリカレントニューラルネットワークと畳み込みニューラルネットワークに基づいている。
ランキングの質を向上させるために,バージョン管理システムのアノテーションから追加情報を利用することを提案する。
論文 参考訳(メタデータ) (2022-01-14T00:16:57Z) - When Liebig's Barrel Meets Facial Landmark Detection: A Practical Model [87.25037167380522]
正確で、堅牢で、効率的で、一般化可能で、エンドツーエンドのトレーニングが可能なモデルを提案する。
精度を向上させるために,2つの軽量モジュールを提案する。
DQInitは、インプットからデコーダのクエリを動的に初期化し、複数のデコーダ層を持つものと同じ精度でモデルを実現する。
QAMemは、共有するクエリではなく、それぞれのクエリに別々のメモリ値を割り当てることで、低解像度のフィーチャーマップ上のクエリの識別能力を高めるように設計されている。
論文 参考訳(メタデータ) (2021-05-27T13:51:42Z) - Automatic Fault Detection for Deep Learning Programs Using Graph
Transformations [13.572917264310119]
ディープラーニングプログラムのためのモデルに基づく故障検出手法であるNeuraLintを提案する。
NeuraLintは、70.5%のリコールと100%の精度で、合成および実世界の両方の例の欠陥と設計上の問題を効果的に検出する。
提案するメタモデルはフィードフォワードニューラルネットワーク用に設計されているが、他のニューラルネットワークアーキテクチャをサポートするように拡張することができる。
論文 参考訳(メタデータ) (2021-05-17T18:06:11Z) - Recoding latent sentence representations -- Dynamic gradient-based
activation modification in RNNs [0.0]
RNNでは、サブオプティマティックな方法で情報をエンコーディングすることは、シーケンスの後の要素に基づいて表現の質に影響を与える可能性がある。
勾配に基づく補正機構を用いて,標準RNNへの拡張を提案する。
言語モデリングの文脈で異なる実験を行い、そのようなメカニズムを使うことによる影響を詳細に調べる。
論文 参考訳(メタデータ) (2021-01-03T17:54:17Z) - Meta-Learned Confidence for Few-shot Learning [60.6086305523402]
数ショットのメトリックベースのアプローチのための一般的なトランスダクティブ推論手法は、最も確実なクエリ例の平均で、各クラスのプロトタイプを更新することである。
本稿では,各クエリの信頼度をメタラーニングして,ラベルのないクエリに最適な重みを割り当てる手法を提案する。
4つのベンチマークデータセットに対してメタ学習の信頼度で、少数ショットの学習モデルを検証した。
論文 参考訳(メタデータ) (2020-02-27T10:22:17Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。