論文の概要: MPI Errors Detection using GNN Embedding and Vector Embedding over LLVM
IR
- arxiv url: http://arxiv.org/abs/2403.02518v1
- Date: Mon, 4 Mar 2024 22:08:37 GMT
- ステータス: 処理完了
- システム内更新日: 2024-03-06 16:49:50.930603
- Title: MPI Errors Detection using GNN Embedding and Vector Embedding over LLVM
IR
- Title(参考訳): LLVM IR上のGNN埋め込みとベクトル埋め込みを用いたMPI誤差検出
- Authors: Jad El Karchi, Hanze Chen, Ali TehraniJamsaz, Ali Jannesari, Mihail
Popov, Emmanuelle Saillard
- Abstract要約: 本稿では,組込みおよび深層学習グラフニューラルネットワーク(GNN)を用いて,MPIプログラムのバグを識別する問題に対処する。
我々は、コードのLLVM中間表現(IR)から、コードが正しいか、既知のMPIエラーを含むかを判断できる2つのモデルの設計と開発を行った。
- 参考スコア(独自算出の注目度): 4.886354697795285
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Identifying errors in parallel MPI programs is a challenging task. Despite
the growing number of verification tools, debugging parallel programs remains a
significant challenge. This paper is the first to utilize embedding and deep
learning graph neural networks (GNNs) to tackle the issue of identifying bugs
in MPI programs. Specifically, we have designed and developed two models that
can determine, from a code's LLVM Intermediate Representation (IR), whether the
code is correct or contains a known MPI error. We tested our models using two
dedicated MPI benchmark suites for verification: MBI and MPI-CorrBench. By
training and validating our models on the same benchmark suite, we achieved a
prediction accuracy of 92% in detecting error types. Additionally, we trained
and evaluated our models on distinct benchmark suites (e.g., transitioning from
MBI to MPI-CorrBench) and achieved a promising accuracy of over 80%. Finally,
we investigated the interaction between different MPI errors and quantified our
models' generalization capabilities over new unseen errors. This involved
removing error types during training and assessing whether our models could
still predict them. The detection accuracy of removed errors varies
significantly between 20% to 80%, indicating connected error patterns.
- Abstract(参考訳): 並列MPIプログラムにおけるエラーの特定は難しい作業である。
検証ツールが増えているにもかかわらず、並列プログラムのデバッグは依然として大きな課題である。
本稿では,組込みおよび深層学習グラフニューラルネットワーク(GNN)を用いて,MPIプログラムのバグを識別する問題に対処する。
具体的には、コードのLLVM中間表現(IR)から、コードが正しいか、既知のMPIエラーを含むかを判断できる2つのモデルの設計と開発を行った。
MBIとMPI-CorrBenchの2つの専用のベンチマークスイートを使用してモデルを検証した。
同じベンチマークスイート上でモデルのトレーニングと検証を行うことで,エラー検出の精度は92%に達した。
さらに、異なるベンチマークスイート(例えば、MBIからMPI-CorrBenchへの移行)でモデルをトレーニングし、評価し、80%以上の有望な精度を達成した。
最後に、異なるMPIエラー間の相互作用を調査し、新しい未知エラーに対するモデルの一般化能力を定量化した。
トレーニング中にエラータイプを削除し、モデルが予測できるかどうかを評価することが必要でした。
除去誤差の検出精度は20%から80%の間で大きく異なり、接続されたエラーパターンを示している。
関連論文リスト
- MPIrigen: MPI Code Generation through Domain-Specific Language Models [3.5352856644774806]
本研究ではまず,MPIに基づく並列プログラム生成における最先端言語モデルの性能について検討する。
HPCorpusMPI上でMonoCoderを微調整することでMPIベースのプログラム生成のダウンストリームタスクを導入する。
この調整されたソリューションの成功は、並列計算コード生成のための最適化言語モデルにおいて、ドメイン固有の微調整の重要性を浮き彫りにしている。
論文 参考訳(メタデータ) (2024-02-14T12:24:21Z) - Small Effect Sizes in Malware Detection? Make Harder Train/Test Splits! [51.668411293817464]
業界関係者は、モデルが数億台のマシンにデプロイされているため、マルウェア検出精度の小さな改善に気を配っている。
学術研究はしばしば1万のサンプルの順序で公開データセットに制限される。
利用可能なサンプルのプールから難易度ベンチマークを生成するためのアプローチを考案する。
論文 参考訳(メタデータ) (2023-12-25T21:25:55Z) - Automated Classification of Model Errors on ImageNet [7.455546102930913]
モデル選択がエラー分布にどのように影響するかを研究するための自動エラー分類フレームワークを提案する。
我々は、900以上のモデルのエラー分布を網羅的に評価するために、我々のフレームワークを使用します。
特に、重大エラーの一部は、モデルの性能を過小評価しているにもかかわらず、重要なパフォーマンス指標であることを示すトップ1の精度で大幅に低下する。
論文 参考訳(メタデータ) (2023-11-13T20:41:39Z) - Teaching Large Language Models to Self-Debug [62.424077000154945]
大規模言語モデル(LLM)は、コード生成において素晴らしいパフォーマンスを達成した。
本稿では,大規模言語モデルで予測プログラムを数発のデモでデバッグする自己デバッグを提案する。
論文 参考訳(メタデータ) (2023-04-11T10:43:43Z) - Finding Deep-Learning Compilation Bugs with NNSmith [20.082492391396933]
本稿では,ディープラーニングコンパイラのバグ発見のためのファズテスト手法を提案する。
我々の中核的なアプローチは、(i)軽量な演算子仕様を使用して、多種多様な有効なモデルを生成し、(ii)勾配ベースの探索プロセスを作成し、(iii)差分テストによってバグを特定します。
我々は,この手法をNSmithで実施し,TVM,RT,ONNXRuntime,PyTorchの過去7ヶ月で65の新たなバグを発見した。そのうち52件が確認され,メンテナによって44件が修正されている。
論文 参考訳(メタデータ) (2022-07-26T17:39:51Z) - Multifamily Malware Models [5.414308305392762]
我々は、トレーニングデータセットの一般性と対応する機械学習モデルの精度との関係を定量化するために、バイト$n$-gramの機能に基づいた実験を行う。
近隣のアルゴリズムは驚くほどよく一般化され、他の機械学習手法よりもはるかに優れています。
論文 参考訳(メタデータ) (2022-06-27T13:06:31Z) - Fault-Aware Neural Code Rankers [64.41888054066861]
サンプルプログラムの正しさを予測できる故障認識型ニューラルネットワークローダを提案する。
我々のフォールト・アウェア・ローダは、様々なコード生成モデルのpass@1精度を大幅に向上させることができる。
論文 参考訳(メタデータ) (2022-06-04T22:01:05Z) - Fast and Accurate Error Simulation for CNNs against Soft Errors [64.54260986994163]
本稿では,誤りシミュレーションエンジンを用いて,コナールニューラルネットワーク(CNN)の信頼性解析のためのフレームワークを提案する。
これらの誤差モデルは、故障によって誘導されるCNN演算子の出力の破損パターンに基づいて定義される。
提案手法は,SASSIFIの欠陥効果の約99%の精度と,限定的なエラーモデルのみを実装した44倍から63倍までのスピードアップを実現する。
論文 参考訳(メタデータ) (2022-06-04T19:45:02Z) - Understanding Factual Errors in Summarization: Errors, Summarizers,
Datasets, Error Detectors [105.12462629663757]
本研究では、既存の9つのデータセットから事実性エラーアノテーションを集約し、基礎となる要約モデルに従ってそれらを階層化する。
本稿では,この階層化ベンチマークにおいて,最近のChatGPTベースの指標を含む最先端の事実性指標の性能を比較し,その性能が様々な種類の要約モデルで大きく異なることを示す。
論文 参考訳(メタデータ) (2022-05-25T15:26:48Z) - ALT-MAS: A Data-Efficient Framework for Active Testing of Machine
Learning Algorithms [58.684954492439424]
少量のラベル付きテストデータのみを用いて機械学習モデルを効率的にテストする新しいフレームワークを提案する。
ベイズニューラルネットワーク(bnn)を用いたモデルアンダーテストの関心指標の推定が目的である。
論文 参考訳(メタデータ) (2021-04-11T12:14:04Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。