論文の概要: MPI Errors Detection using GNN Embedding and Vector Embedding over LLVM
IR
- arxiv url: http://arxiv.org/abs/2403.02518v1
- Date: Mon, 4 Mar 2024 22:08:37 GMT
- ステータス: 処理完了
- システム内更新日: 2024-03-06 16:49:50.930603
- Title: MPI Errors Detection using GNN Embedding and Vector Embedding over LLVM
IR
- Title(参考訳): LLVM IR上のGNN埋め込みとベクトル埋め込みを用いたMPI誤差検出
- Authors: Jad El Karchi, Hanze Chen, Ali TehraniJamsaz, Ali Jannesari, Mihail
Popov, Emmanuelle Saillard
- Abstract要約: 本稿では,組込みおよび深層学習グラフニューラルネットワーク(GNN)を用いて,MPIプログラムのバグを識別する問題に対処する。
我々は、コードのLLVM中間表現(IR)から、コードが正しいか、既知のMPIエラーを含むかを判断できる2つのモデルの設計と開発を行った。
- 参考スコア(独自算出の注目度): 4.886354697795285
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Identifying errors in parallel MPI programs is a challenging task. Despite
the growing number of verification tools, debugging parallel programs remains a
significant challenge. This paper is the first to utilize embedding and deep
learning graph neural networks (GNNs) to tackle the issue of identifying bugs
in MPI programs. Specifically, we have designed and developed two models that
can determine, from a code's LLVM Intermediate Representation (IR), whether the
code is correct or contains a known MPI error. We tested our models using two
dedicated MPI benchmark suites for verification: MBI and MPI-CorrBench. By
training and validating our models on the same benchmark suite, we achieved a
prediction accuracy of 92% in detecting error types. Additionally, we trained
and evaluated our models on distinct benchmark suites (e.g., transitioning from
MBI to MPI-CorrBench) and achieved a promising accuracy of over 80%. Finally,
we investigated the interaction between different MPI errors and quantified our
models' generalization capabilities over new unseen errors. This involved
removing error types during training and assessing whether our models could
still predict them. The detection accuracy of removed errors varies
significantly between 20% to 80%, indicating connected error patterns.
- Abstract(参考訳): 並列MPIプログラムにおけるエラーの特定は難しい作業である。
検証ツールが増えているにもかかわらず、並列プログラムのデバッグは依然として大きな課題である。
本稿では,組込みおよび深層学習グラフニューラルネットワーク(GNN)を用いて,MPIプログラムのバグを識別する問題に対処する。
具体的には、コードのLLVM中間表現(IR)から、コードが正しいか、既知のMPIエラーを含むかを判断できる2つのモデルの設計と開発を行った。
MBIとMPI-CorrBenchの2つの専用のベンチマークスイートを使用してモデルを検証した。
同じベンチマークスイート上でモデルのトレーニングと検証を行うことで,エラー検出の精度は92%に達した。
さらに、異なるベンチマークスイート(例えば、MBIからMPI-CorrBenchへの移行)でモデルをトレーニングし、評価し、80%以上の有望な精度を達成した。
最後に、異なるMPIエラー間の相互作用を調査し、新しい未知エラーに対するモデルの一般化能力を定量化した。
トレーニング中にエラータイプを削除し、モデルが予測できるかどうかを評価することが必要でした。
除去誤差の検出精度は20%から80%の間で大きく異なり、接続されたエラーパターンを示している。
関連論文リスト
- Subtle Errors Matter: Preference Learning via Error-injected Self-editing [59.405145971637204]
eRror-Injected Self-Editing (RISE) と呼ばれる新しい好み学習フレームワークを提案する。
RISEは定義済みの微妙な誤りを正しい解の部分的なトークンに注入し、エラー軽減のためにハードペアを構築する。
RISEの有効性を検証する実験では、Qwen2-7B-Instructでは、GSM8Kでは3.0%、MATHでは7.9%が顕著に改善された。
論文 参考訳(メタデータ) (2024-10-09T07:43:38Z) - RepCNN: Micro-sized, Mighty Models for Wakeword Detection [3.4888176891918654]
常時オンの機械学習モデルは、非常に少ないメモリと計算フットプリントを必要とする。
より大規模なマルチブランチアーキテクチャへの計算によって、小さな畳み込みモデルをよりよく訓練できることが示される。
我々は、常時起動するウェイクワード検出モデルであるRepCNNが、推論中のレイテンシと精度のトレードオフを良好に提供することを示す。
論文 参考訳(メタデータ) (2024-06-04T16:14:19Z) - MPIrigen: MPI Code Generation through Domain-Specific Language Models [3.5352856644774806]
本研究ではまず,MPIに基づく並列プログラム生成における最先端言語モデルの性能について検討する。
HPCorpusMPI上でMonoCoderを微調整することでMPIベースのプログラム生成のダウンストリームタスクを導入する。
この調整されたソリューションの成功は、並列計算コード生成のための最適化言語モデルにおいて、ドメイン固有の微調整の重要性を浮き彫りにしている。
論文 参考訳(メタデータ) (2024-02-14T12:24:21Z) - Small Effect Sizes in Malware Detection? Make Harder Train/Test Splits! [51.668411293817464]
業界関係者は、モデルが数億台のマシンにデプロイされているため、マルウェア検出精度の小さな改善に気を配っている。
学術研究はしばしば1万のサンプルの順序で公開データセットに制限される。
利用可能なサンプルのプールから難易度ベンチマークを生成するためのアプローチを考案する。
論文 参考訳(メタデータ) (2023-12-25T21:25:55Z) - Teaching Large Language Models to Self-Debug [62.424077000154945]
大規模言語モデル(LLM)は、コード生成において素晴らしいパフォーマンスを達成した。
本稿では,大規模言語モデルで予測プログラムを数発のデモでデバッグする自己デバッグを提案する。
論文 参考訳(メタデータ) (2023-04-11T10:43:43Z) - Finding Deep-Learning Compilation Bugs with NNSmith [20.082492391396933]
本稿では,ディープラーニングコンパイラのバグ発見のためのファズテスト手法を提案する。
我々の中核的なアプローチは、(i)軽量な演算子仕様を使用して、多種多様な有効なモデルを生成し、(ii)勾配ベースの探索プロセスを作成し、(iii)差分テストによってバグを特定します。
我々は,この手法をNSmithで実施し,TVM,RT,ONNXRuntime,PyTorchの過去7ヶ月で65の新たなバグを発見した。そのうち52件が確認され,メンテナによって44件が修正されている。
論文 参考訳(メタデータ) (2022-07-26T17:39:51Z) - Multifamily Malware Models [5.414308305392762]
我々は、トレーニングデータセットの一般性と対応する機械学習モデルの精度との関係を定量化するために、バイト$n$-gramの機能に基づいた実験を行う。
近隣のアルゴリズムは驚くほどよく一般化され、他の機械学習手法よりもはるかに優れています。
論文 参考訳(メタデータ) (2022-06-27T13:06:31Z) - Fault-Aware Neural Code Rankers [64.41888054066861]
サンプルプログラムの正しさを予測できる故障認識型ニューラルネットワークローダを提案する。
我々のフォールト・アウェア・ローダは、様々なコード生成モデルのpass@1精度を大幅に向上させることができる。
論文 参考訳(メタデータ) (2022-06-04T22:01:05Z) - Fast and Accurate Error Simulation for CNNs against Soft Errors [64.54260986994163]
本稿では,誤りシミュレーションエンジンを用いて,コナールニューラルネットワーク(CNN)の信頼性解析のためのフレームワークを提案する。
これらの誤差モデルは、故障によって誘導されるCNN演算子の出力の破損パターンに基づいて定義される。
提案手法は,SASSIFIの欠陥効果の約99%の精度と,限定的なエラーモデルのみを実装した44倍から63倍までのスピードアップを実現する。
論文 参考訳(メタデータ) (2022-06-04T19:45:02Z) - ALT-MAS: A Data-Efficient Framework for Active Testing of Machine
Learning Algorithms [58.684954492439424]
少量のラベル付きテストデータのみを用いて機械学習モデルを効率的にテストする新しいフレームワークを提案する。
ベイズニューラルネットワーク(bnn)を用いたモデルアンダーテストの関心指標の推定が目的である。
論文 参考訳(メタデータ) (2021-04-11T12:14:04Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。