論文の概要: Deep Data Flow Analysis
- arxiv url: http://arxiv.org/abs/2012.01470v1
- Date: Sat, 21 Nov 2020 03:29:14 GMT
- ステータス: 処理完了
- システム内更新日: 2022-09-22 23:42:31.230779
- Title: Deep Data Flow Analysis
- Title(参考訳): 深部データフロー解析
- Authors: Chris Cummins, Hugh Leather, Zacharias Fisches, Tal Ben-Nun, Torsten
Hoefler, Michael O'Boyle
- Abstract要約: ProGraMLは、ディープラーニングのためのプログラム全体のセマンティクスのポータブル表現である。
コンパイラ解析のための現在および将来の学習手法をベンチマークする。
本稿では, ProGraMLを用いて, ダウンストリームコンパイラ最適化タスクにおいて, 標準解析を学習し, 性能を向上できることを示す。
- 参考スコア(独自算出の注目度): 14.583644439728895
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Compiler architects increasingly look to machine learning when building
heuristics for compiler optimization. The promise of automatic heuristic
design, freeing the compiler engineer from the complex interactions of program,
architecture, and other optimizations, is alluring. However, most machine
learning methods cannot replicate even the simplest of the abstract
interpretations of data flow analysis that are critical to making good
optimization decisions. This must change for machine learning to become the
dominant technology in compiler heuristics.
To this end, we propose ProGraML - Program Graphs for Machine Learning - a
language-independent, portable representation of whole-program semantics for
deep learning. To benchmark current and future learning techniques for compiler
analyses we introduce an open dataset of 461k Intermediate Representation (IR)
files for LLVM, covering five source programming languages, and 15.4M
corresponding data flow results. We formulate data flow analysis as an MPNN and
show that, using ProGraML, standard analyses can be learned, yielding improved
performance on downstream compiler optimization tasks.
- Abstract(参考訳): コンパイラ最適化のためのヒューリスティックを構築する際に、コンパイラアーキテクトはますます機械学習に目を向けるようになる。
プログラム、アーキテクチャ、その他の最適化の複雑な相互作用からコンパイラエンジニアを解放する自動ヒューリスティック設計の約束は順調である。
しかし、ほとんどの機械学習手法は、適切な最適化決定を行うのに不可欠なデータフロー分析の抽象解釈の最も単純な部分さえ再現できない。
機械学習がコンパイラヒューリスティックにおいて支配的な技術になるためには、この方法を変える必要がある。
この目的のために,ディープラーニングのための言語に依存しない,プログラム全体のセマンティクスのポータブル表現であるProGraML - Program Graphs for Machine Learningを提案する。
コンパイラ解析のための現在および将来の学習技術をベンチマークするために、5つのソースプログラミング言語と15.4mのデータフロー結果をカバーする、llvm用の461k中間表現(ir)ファイルのオープンデータセットを紹介する。
データフロー解析をmpnnとして定式化し,プログラムを用いて標準解析を学習し,下流コンパイラ最適化タスクの性能向上を実現することを示す。
関連論文リスト
- LLM-based Optimization of Compound AI Systems: A Survey [64.39860384538338]
複合AIシステムでは、LLMコール、レトリバー、コードインタプリタ、ツールなどのコンポーネントが相互接続される。
近年の進歩により, LLM を用いたパラメータのエンドツーエンド最適化が可能となった。
本稿では,複合AIシステムのLCMに基づく最適化の原理と動向について述べる。
論文 参考訳(メタデータ) (2024-10-21T18:06:25Z) - CompilerDream: Learning a Compiler World Model for General Code Optimization [58.87557583347996]
汎用コード最適化のためのモデルベース強化学習手法であるCompilerDreamを紹介する。
最適化パスの固有の特性を正確にシミュレートするコンパイラの世界モデルと、このモデルで訓練されたエージェントから、効率的な最適化戦略を生成する。
さまざまなデータセットを網羅し、LLVMのビルトイン最適化や、値予測とエンドツーエンドコード最適化の両方の設定における最先端メソッドを超越している。
論文 参考訳(メタデータ) (2024-04-24T09:20:33Z) - Compiler generated feedback for Large Language Models [3.86901256759401]
我々は,LLVMアセンブリのコードサイズを最適化するために,コンパイラフィードバックを備えたLarge Language Modelを用いたコンパイラ最適化において,新しいパラダイムを導入する。
このモデルは、最適化されていないLLVM IRを入力として取り、最適化されたIR、最適な最適化パス、最適化されていないIRと最適化されたIRの両方の命令数を生成する。
論文 参考訳(メタデータ) (2024-03-18T23:25:13Z) - Learning Performance-Improving Code Edits [107.21538852090208]
本稿では,大規模言語モデル(LLM)を高レベルプログラム最適化に適用するためのフレームワークを提案する。
まず、競争力のある77,000以上のC++プログラミングサブミッションペアによる、人間のプログラマによるパフォーマンス改善編集のデータセットをキュレートする。
提案手法は,検索をベースとした少数ショットプロンプトとチェーン・オブ・シンクレットを提案し,その微調整には,自己再生に基づく性能条件付き生成と合成データ拡張が含まれる。
論文 参考訳(メタデータ) (2023-02-15T18:59:21Z) - ML-driven Hardware Cost Model for MLIR [1.2987894327817158]
高レベルMLIRのための機械学習に基づくコストモデルを開発した。
MLIRをラ・NLPモデルのテキスト入力として考えることにより、現代のNLP研究からよく知られた技術を適用することができる。
これらのモデルにより,種々のハードウェア特性に対する誤差境界が低く,合理的に優れた推定値が得られることを示す。
論文 参考訳(メタデータ) (2023-02-14T11:32:47Z) - Profile Guided Optimization without Profiles: A Machine Learning
Approach [0.0]
プロファイルガイド最適化は動的挙動に基づくコンパイラの最適化能力を改善する効果的な手法である。
本稿では,プロファイルを導出せずにコンパイルされるプログラムの性能を向上させる分岐確率推定のための新しい統計的アプローチを提案する。
論文 参考訳(メタデータ) (2021-12-24T22:49:21Z) - Learning to Superoptimize Real-world Programs [79.4140991035247]
本稿では,ニューラルシークエンス・ツー・シーケンス・モデルを用いて,実世界のプログラムを最適化するフレームワークを提案する。
我々は、x86-64アセンブリでオープンソースプロジェクトから抽出された25万以上の実世界の関数からなるデータセットであるBig Assemblyベンチマークを紹介した。
論文 参考訳(メタデータ) (2021-09-28T05:33:21Z) - Instead of Rewriting Foreign Code for Machine Learning, Automatically
Synthesize Fast Gradients [6.09170287691728]
本稿では,LLVMコンパイラフレームワーク用の高性能自動微分(AD)コンパイラプラグインであるEnzymeを提案する。
EnzymeはLLVM中間表現(IR)をターゲットにした任意の言語で記述されたプログラムの勾配を合成する
MicrosoftのADBenchを含む機械学習に焦点を当てたベンチマークスイートでは、最適化されたIR上のADは、IR上のAD上の4.5倍の幾何平均スピードアップを達成する。
論文 参考訳(メタデータ) (2020-10-04T22:32:51Z) - PolyDL: Polyhedral Optimizations for Creation of High Performance DL
primitives [55.79741270235602]
本稿では,Deep Learningプリミティブの高性能実装を自動的に生成するコンパイラアルゴリズムを提案する。
我々は多面体モデルを用いた新しいデータ再利用分析アルゴリズムを開発した。
また、このようなハイブリッドコンパイラとライブラリ使用の最小限のアプローチが、最先端のパフォーマンスをもたらすことを示す。
論文 参考訳(メタデータ) (2020-06-02T06:44:09Z) - ProGraML: Graph-based Deep Learning for Program Optimization and
Analysis [16.520971531754018]
本稿では,機械学習のためのグラフベースのプログラム表現であるProGraMLを紹介する。
ProGraMLは平均94.0F1スコアを獲得し、最先端のアプローチを著しく上回っている。
そして、我々のアプローチを2つのハイレベルなタスク - 不均一なデバイスマッピングとプログラム分類 - に適用し、その両方で新しい最先端のパフォーマンスを設定します。
論文 参考訳(メタデータ) (2020-03-23T20:27:00Z) - Multi-layer Optimizations for End-to-End Data Analytics [71.05611866288196]
代替アプローチを実現するフレームワークであるIFAQ(Iterative Functional Aggregate Queries)を紹介する。
IFAQは、特徴抽出クエリと学習タスクを、IFAQのドメイン固有言語で与えられた1つのプログラムとして扱う。
IFAQ の Scala 実装が mlpack,Scikit,特殊化を数桁で上回り,線形回帰木モデルや回帰木モデルを複数の関係データセット上で処理可能であることを示す。
論文 参考訳(メタデータ) (2020-01-10T16:14:44Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。