論文の概要: Comparative Code Structure Analysis using Deep Learning for Performance
Prediction
- arxiv url: http://arxiv.org/abs/2102.07660v1
- Date: Fri, 12 Feb 2021 16:59:12 GMT
- ステータス: 処理完了
- システム内更新日: 2021-02-16 15:18:33.748558
- Title: Comparative Code Structure Analysis using Deep Learning for Performance
Prediction
- Title(参考訳): ディープラーニングによる性能予測のための比較コード構造解析
- Authors: Nathan Pinnow, Tarek Ramadan, Tanzima Z. Islam, Chase Phelps,
Jayaraman J. Thiagarajan
- Abstract要約: 本稿では,アプリケーションの静的情報(抽象構文木やASTなど)を用いてコード構造の変化に基づいて性能変化を予測することの実現可能性を評価することを目的とする。
組込み学習手法の評価により,木系長短メモリ(LSTM)モデルでは,ソースコードの階層構造を利用して遅延表現を発見し,最大84%(個人的問題)と73%(複数の問題を含む組み合わせデータセット)の精度で性能変化を予測できることが示された。
- 参考スコア(独自算出の注目度): 18.226950022938954
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Performance analysis has always been an afterthought during the application
development process, focusing on application correctness first. The learning
curve of the existing static and dynamic analysis tools are steep, which
requires understanding low-level details to interpret the findings for
actionable optimizations. Additionally, application performance is a function
of an infinite number of unknowns stemming from the application-, runtime-, and
interactions between the OS and underlying hardware, making it difficult, if
not impossible, to model using any deep learning technique, especially without
a large labeled dataset. In this paper, we address both of these problems by
presenting a large corpus of a labeled dataset for the community and take a
comparative analysis approach to mitigate all unknowns except their source code
differences between different correct implementations of the same problem. We
put the power of deep learning to the test for automatically extracting
information from the hierarchical structure of abstract syntax trees to
represent source code. This paper aims to assess the feasibility of using
purely static information (e.g., abstract syntax tree or AST) of applications
to predict performance change based on the change in code structure. This
research will enable performance-aware application development since every
version of the application will continue to contribute to the corpora, which
will enhance the performance of the model. Our evaluations of several deep
embedding learning methods demonstrate that tree-based Long Short-Term Memory
(LSTM) models can leverage the hierarchical structure of source-code to
discover latent representations and achieve up to 84% (individual problem) and
73% (combined dataset with multiple of problems) accuracy in predicting the
change in performance.
- Abstract(参考訳): パフォーマンス分析は、アプリケーション開発プロセスにおいて常に後発であり、アプリケーションの正確性に重点を置いています。
既存の静的および動的解析ツールの学習曲線は急勾配であり、実行可能最適化の結果を解釈するために低レベルの詳細を理解する必要がある。
さらに、アプリケーションのパフォーマンスは、アプリケーション、ランタイム、およびOSと基礎となるハードウェア間の相互作用から生じる無限の未知数の関数であり、特に大規模なラベル付きデータセットなしで、ディープラーニング技術を使用してモデル化することは困難です。
本稿では,これら2つの問題について,コミュニティに対してラベル付きデータセットの大規模コーパスを提示し,同じ問題の異なる正しい実装間のソースコードの相違を除いて,未知のすべてを軽減するための比較分析手法を提案する。
ソースコードを表現するために、抽象構文ツリーの階層構造から情報を自動抽出するテストにディープラーニングの力を入れます。
本稿では,アプリケーションの静的情報(抽象構文木やASTなど)を用いてコード構造の変化に基づいて性能変化を予測することの実現可能性を評価することを目的とする。
この研究は、アプリケーションのすべてのバージョンがモデルのパフォーマンスを向上させるコーポラに貢献し続けるので、パフォーマンスを意識したアプリケーション開発を可能にします。
組込み学習手法の評価により,木系長短メモリ(LSTM)モデルでは,ソースコードの階層構造を利用して遅延表現を発見し,最大84%(個人的問題)と73%(複数の問題を含む組み合わせデータセット)の精度で性能変化を予測できることが示された。
関連論文リスト
- Optimized Feature Generation for Tabular Data via LLMs with Decision Tree Reasoning [53.241569810013836]
本稿では,大規模言語モデル(LLM)を用いて,効率的な特徴生成ルールを同定するフレームワークを提案する。
我々は、自然言語で容易に表現できるため、この推論情報を伝達するために決定木を使用します。
OCTreeは様々なベンチマークで様々な予測モデルの性能を継続的に向上させる。
論文 参考訳(メタデータ) (2024-06-12T08:31:34Z) - Leveraging Reinforcement Learning and Large Language Models for Code
Optimization [14.602997316032706]
本稿では,コード最適化の複雑さを低減するための新しいフレームワークを提案する。
提案するフレームワークは,大規模言語モデル(LLM)と強化学習(RL)に基づく。
我々は,新しい強化学習アルゴリズムであるCodeT5言語モデルとRRHFを用いて,PIEデータセット上でいくつかの実験を行った。
論文 参考訳(メタデータ) (2023-12-09T19:50:23Z) - A Generic Performance Model for Deep Learning in a Distributed
Environment [0.7829352305480285]
本稿では,アプリケーション実行時間の汎用表現を用いた分散環境におけるアプリケーションの汎用性能モデルを提案する。
提案手法を3つのディープラーニングフレームワーク(MXnetとPytorch)で評価した。
論文 参考訳(メタデータ) (2023-05-19T13:30:34Z) - A Unified Active Learning Framework for Annotating Graph Data with
Application to Software Source Code Performance Prediction [4.572330678291241]
ソフトウェアの性能予測を専門とする一貫したアクティブラーニングフレームワークを開発した。
能動的・受動的学習に異なるレベルの情報を用いることが与える影響について検討する。
我々のアプローチは、異なるソフトウェアパフォーマンス予測のためのAIモデルへの投資を改善することを目的としています。
論文 参考訳(メタデータ) (2023-04-06T14:00:48Z) - HyperImpute: Generalized Iterative Imputation with Automatic Model
Selection [77.86861638371926]
カラムワイズモデルを適応的かつ自動的に構成するための一般化反復計算フレームワークを提案する。
既製の学習者,シミュレータ,インターフェースを備えた具体的な実装を提供する。
論文 参考訳(メタデータ) (2022-06-15T19:10:35Z) - An Empirical Investigation of Commonsense Self-Supervision with
Knowledge Graphs [67.23285413610243]
大規模知識グラフから抽出した情報に基づく自己監督は、言語モデルの一般化を改善することが示されている。
本研究では,言語モデルに適用可能な合成データを生成するための知識サンプリング戦略とサイズの影響について検討する。
論文 参考訳(メタデータ) (2022-05-21T19:49:04Z) - Autoregressive Search Engines: Generating Substrings as Document
Identifiers [53.0729058170278]
自動回帰言語モデルは、回答を生成するデファクト標準として現れています。
これまでの研究は、探索空間を階層構造に分割する方法を探究してきた。
本研究では,検索空間の任意の構造を強制しない代替として,経路内のすべてのngramを識別子として使用することを提案する。
論文 参考訳(メタデータ) (2022-04-22T10:45:01Z) - Visualizing the Relationship Between Encoded Linguistic Information and
Task Performance [53.223789395577796]
本稿では,Pareto Optimalityの観点から,符号化言語情報とタスクパフォーマンスの動的関係について検討する。
我々は、機械翻訳と言語モデリングという2つの一般的なNLPタスクの実験を行い、様々な言語情報とタスクパフォーマンスの関係について検討する。
実験結果から,NLPタスクには構文情報が有用であるのに対して,より構文情報の符号化が必ずしも優れたパフォーマンスをもたらすとは限らないことが示唆された。
論文 参考訳(メタデータ) (2022-03-29T19:03:10Z) - Precise Learning of Source Code Contextual Semantics via Hierarchical
Dependence Structure and Graph Attention Networks [28.212889828892664]
階層的な依存関係を組み込んだ新しいソースコードモデルを提案する。
本稿では,基本ブロックの構文構造,すなわち対応するASTをソースコードモデルに導入し,十分な情報を提供する。
その結果,本モデルではパラメータのスケールを50%削減し,プログラム分類タスクの精度を4%向上させることができた。
論文 参考訳(メタデータ) (2021-11-20T04:03:42Z) - Fast Few-Shot Classification by Few-Iteration Meta-Learning [173.32497326674775]
数ショット分類のための高速な最適化に基づくメタラーニング手法を提案する。
我々の戦略はメタ学習において学習すべき基礎学習者の目的の重要な側面を可能にする。
我々は、我々のアプローチの速度と効果を実証し、総合的な実験分析を行う。
論文 参考訳(メタデータ) (2020-10-01T15:59:31Z) - StackGenVis: Alignment of Data, Algorithms, and Models for Stacking Ensemble Learning Using Performance Metrics [4.237343083490243]
機械学習(ML)では、バッグング、ブースティング、スタックングといったアンサンブル手法が広く確立されている。
StackGenVisは、スタック化された一般化のためのビジュアル分析システムである。
論文 参考訳(メタデータ) (2020-05-04T15:43:55Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。