論文の概要: TEP-GNN: Accurate Execution Time Prediction of Functional Tests using
Graph Neural Networks
- arxiv url: http://arxiv.org/abs/2208.11947v1
- Date: Thu, 25 Aug 2022 09:08:32 GMT
- ステータス: 処理完了
- システム内更新日: 2022-08-26 13:49:58.621031
- Title: TEP-GNN: Accurate Execution Time Prediction of Functional Tests using
Graph Neural Networks
- Title(参考訳): TEP-GNN:グラフニューラルネットワークを用いた機能テストの正確な実行時間予測
- Authors: Hazem Peter Samoaa, Antonio Longa, Mazen Mohamad, Morteza Haghir
Chehreghani and Philipp Leitner
- Abstract要約: 我々は,TEP-GNNと呼ばれる予測モデルを提案し,精度の高い性能予測が可能であることを実証した。
TEP-GNNは、グラフベースのコード表現アプローチとしてFA-ASTまたはフロー拡張ASTを使用する。
プロジェクト公開リポジトリから抽出した922のテストファイルに基づいて,4つのJavaオープンソースプログラムを用いてTEP-GNNを評価した。
- 参考スコア(独自算出の注目度): 5.899031548148629
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Predicting the performance of production code prior to actually executing or
benchmarking it is known to be highly challenging. In this paper, we propose a
predictive model, dubbed TEP-GNN, which demonstrates that high-accuracy
performance prediction is possible for the special case of predicting unit test
execution times. TEP-GNN uses FA-ASTs, or flow-augmented ASTs, as a graph-based
code representation approach, and predicts test execution times using a
powerful graph neural network (GNN) deep learning model. We evaluate TEP-GNN
using four real-life Java open source programs, based on 922 test files mined
from the projects' public repositories. We find that our approach achieves a
high Pearson correlation of 0.789, considerable outperforming a baseline deep
learning model. However, we also find that more work is needed for trained
models to generalize to unseen projects. Our work demonstrates that FA-ASTs and
GNNs are a feasible approach for predicting absolute performance values, and
serves as an important intermediary step towards being able to predict the
performance of arbitrary code prior to execution.
- Abstract(参考訳): 実際に実行またはベンチマークする前に本番コードのパフォーマンスを予測することは、非常に難しいことが分かっています。
本稿では,tep-gnnと呼ばれる予測モデルを提案し,ユニットテストの実行時間を予測する特別な場合において,高精度な性能予測が可能であることを示す。
TEP-GNNは、グラフベースのコード表現アプローチとしてFA-ASTまたはフロー拡張ASTを使用し、強力なグラフニューラルネットワーク(GNN)ディープラーニングモデルを使用してテスト実行時間を予測する。
プロジェクト公開リポジトリから抽出した922のテストファイルに基づいて,4つのJavaオープンソースプログラムを用いてTEP-GNNを評価した。
提案手法はピアソン相関が0.789であり,ベースライン深層学習モデルよりもかなり優れていることがわかった。
しかし、トレーニングされたモデルが未発見のプロジェクトに一般化するためには、より多くの作業が必要であることも分かりました。
我々の研究は、FA-ASTとGNNが絶対的なパフォーマンス値を予測するための実現可能なアプローチであることを示し、実行前に任意のコードのパフォーマンスを予測するための重要な中間的なステップとして役立ちます。
関連論文リスト
- FR-NAS: Forward-and-Reverse Graph Predictor for Efficient Neural Architecture Search [10.699485270006601]
ニューラルネットワーク探索のための新しいグラフニューラルネットワーク(GNN)予測器を提案する。
この予測器は、従来のグラフビューと逆グラフビューを組み合わせることで、ニューラルネットワークをベクトル表現に変換する。
実験の結果, 予測精度は3%~16%向上し, 予測精度は有意に向上した。
論文 参考訳(メタデータ) (2024-04-24T03:22:49Z) - SimTeG: A Frustratingly Simple Approach Improves Textual Graph Learning [131.04781590452308]
テキストグラフ学習におけるフラストレーションに富んだアプローチであるSimTeGを提案する。
まず、下流タスクで予め訓練されたLM上で、教師付きパラメータ効率の微調整(PEFT)を行う。
次に、微調整されたLMの最後の隠れ状態を用いてノード埋め込みを生成する。
論文 参考訳(メタデータ) (2023-08-03T07:00:04Z) - Uncertainty Quantification over Graph with Conformalized Graph Neural
Networks [52.20904874696597]
グラフニューラルネットワーク(GNN)は、グラフ構造化データに基づく強力な機械学習予測モデルである。
GNNには厳密な不確実性見積が欠如しており、エラーのコストが重要な設定での信頼性の高いデプロイメントが制限されている。
本稿では,共形予測(CP)をグラフベースモデルに拡張した共形GNN(CF-GNN)を提案する。
論文 参考訳(メタデータ) (2023-05-23T21:38:23Z) - PerfSAGE: Generalized Inference Performance Predictor for Arbitrary Deep
Learning Models on Edge Devices [8.272409756443539]
本稿では、任意のDNNliteグラフ上の推論遅延、エネルギー、メモリフットプリントを予測する新しいグラフニューラルネットワークであるPerfSAGEについて述べる。
このデータセットを用いて、PerfSAGEをトレーニングし、すべてのターゲットとモデル検索空間にわたって平均絶対パーセンテージ誤差の5%で最先端の予測精度を示す実験結果を提供する。
論文 参考訳(メタデータ) (2023-01-26T08:59:15Z) - Invertible Neural Networks for Graph Prediction [22.140275054568985]
本研究では,ディープ・インバーチブル・ニューラルネットワークを用いた条件生成について述べる。
私たちの目標は,前処理と後処理の予測と生成を同時に行うことにあるので,エンドツーエンドのトレーニングアプローチを採用しています。
論文 参考訳(メタデータ) (2022-06-02T17:28:33Z) - High-Level Synthesis Performance Prediction using GNNs: Benchmarking,
Modeling, and Advancing [21.8349113634555]
アジャイルハードウェア開発には、初期の設計段階から高速で正確な回路品質の評価が必要である。
本稿では,C/C++プログラムをグラフとして表現することで,グラフニューラルネットワーク(GNN)の表現力を生かした高速かつ正確な性能モデリングを提案する。
提案する予測器はHLSを最大40倍に上回り,既存の予測器を2倍から5倍に上回っている。
論文 参考訳(メタデータ) (2022-01-18T09:53:48Z) - An Adaptive Graph Pre-training Framework for Localized Collaborative
Filtering [79.17319280791237]
局所的協調フィルタリング(ADAPT)のための適応グラフ事前学習フレームワークを提案する。
ADAPTは、異なるグラフにまたがる共通知識と、各グラフの特異性の両方をキャプチャする。
ユーザ/イテムの埋め込みを転送する必要はなく、異なるグラフにまたがる共通知識と各グラフのユニークさの両方をキャプチャできる。
論文 参考訳(メタデータ) (2021-12-14T06:53:13Z) - Towards More Fine-grained and Reliable NLP Performance Prediction [85.78131503006193]
NLPタスクのパフォーマンス予測の改善に2つの貢献をしている。
まず,F1やBLEUのような総合的な精度測定のための性能予測器について検討する。
次に,信頼区間とキャリブレーションの2つの角度から性能予測モデルの信頼性を理解する手法を提案する。
論文 参考訳(メタデータ) (2021-02-10T15:23:20Z) - Combining Label Propagation and Simple Models Out-performs Graph Neural
Networks [52.121819834353865]
多くの標準的なトランスダクティブノード分類ベンチマークでは、最先端のGNNの性能を超えたり、一致させることができる。
これをC&S(Correct and Smooth)と呼ぶ。
我々のアプローチは、様々なベンチマークで最先端のGNNの性能を上回るか、ほぼ一致している。
論文 参考訳(メタデータ) (2020-10-27T02:10:52Z) - Learning to Execute Programs with Instruction Pointer Attention Graph
Neural Networks [55.98291376393561]
グラフニューラルネットワーク(GNN)は、ソフトウェアエンジニアリングタスクを学習するための強力なツールとして登場した。
リカレントニューラルネットワーク(RNN)は、長いシーケンシャルな推論の連鎖に適しているが、プログラム構造を自然に組み込んでいるわけではない。
本稿では,新しいGNNアーキテクチャ,IPA-GNN(Instruction Pointer Attention Graph Neural Networks)を導入する。
論文 参考訳(メタデータ) (2020-10-23T19:12:30Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。