論文の概要: Protean Compiler: An Agile Framework to Drive Fine-grain Phase Ordering
- arxiv url: http://arxiv.org/abs/2602.06142v1
- Date: Thu, 05 Feb 2026 19:24:05 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-02-09 22:18:26.078484
- Title: Protean Compiler: An Agile Framework to Drive Fine-grain Phase Ordering
- Title(参考訳): Proteanコンパイラ: きめ細かいフェーズオーダを実行するアジャイルフレームワーク
- Authors: Amir H. Ashouri, Shayan Shirahmad Gale Bagi, Kavin Satheeskumar, Tejas Srikanth, Jonathan Zhao, Ibrahim Saidoun, Ziwen Wang, Bryan Chan, Tomasz S. Czajkowski,
- Abstract要約: Protean Compilerは,詳細なスコープでフェーズオーダ機能を組み込んだLLVMを実現するための,アジャイルフレームワークである。
フレームワークはまた、さまざまなスコープで140以上の手作りの静的特徴収集メソッドの完全なライブラリを含んでいる。
この記事では,LLVM の O3 を使用中の Cbench アプリケーションに対して,平均で4.1% ,選択した Cbench アプリケーションで15.7% の高速化を実現している。
- 参考スコア(独自算出の注目度): 2.5829132714658067
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: The phase ordering problem has been a long-standing challenge since the late 1970s, yet it remains an open problem due to having a vast optimization space and an unbounded nature, making it an open-ended problem without a finite solution, one can limit the scope by reducing the number and the length of optimizations. Traditionally, such locally optimized decisions are made by hand-coded algorithms tuned for a small number of benchmarks, often requiring significant effort to be retuned when the benchmark suite changes. In the past 20 years, Machine Learning has been employed to construct performance models to improve the selection and ordering of compiler optimizations, however, the approaches are not baked into the compiler seamlessly and never materialized to be leveraged at a fine-grained scope of code segments. This paper presents Protean Compiler: An agile framework to enable LLVM with built-in phase-ordering capabilities at a fine-grained scope. The framework also comprises a complete library of more than 140 handcrafted static feature collection methods at varying scopes, and the experimental results showcase speedup gains of up to 4.1% on average and up to 15.7% on select Cbench applications wrt LLVM's O3 by just incurring a few extra seconds of build time on Cbench. Additionally, Protean compiler allows for an easy integration with third-party ML frameworks and other Large Language Models, and this two-step optimization shows a gain of 10.1% and 8.5% speedup wrt O3 on Cbench's Susan and Jpeg applications. Protean compiler is seamlessly integrated into LLVM and can be used as a new, enhanced, full-fledged compiler. We plan to release the project to the open-source community in the near future.
- Abstract(参考訳): 位相順序問題(英語版)は1970年代後半から長年の課題であったが、大きな最適化空間と非有界な性質を持つため未解決の問題であり、有限解のないオープンエンド問題であり、最適化の数と長さを減らして範囲を制限することができる。
伝統的に、このような局所的に最適化された決定は、少数のベンチマーク用に調整された手書きのアルゴリズムによって行われ、しばしばベンチマークスイートが変更される際には、大幅な作業が必要になる。
過去20年間、機械学習はコンパイラ最適化の選択と順序付けを改善するためにパフォーマンスモデルの構築に用いられてきたが、そのアプローチはコンパイラにシームレスに組み込まれず、コードセグメントのきめ細かい範囲で活用されることもない。
本稿では,Protean Compilerについて述べる。 詳細なスコープで,フェーズオーダ機能を組み込んだLLVMを実現するためのアジャイルフレームワーク。
フレームワークはまた、さまざまなスコープで140以上の手作りの静的機能収集メソッドの完全なライブラリで構成されており、実験結果は、Cbenchで数秒追加ビルドすることで、特定のCbenchアプリケーションで最大4.1%、Cbenchで最大15.7%のスピードアップを実現している。
さらに、Proteanコンパイラは、サードパーティのMLフレームワークや他の大規模言語モデルと簡単に統合できる。この2ステップの最適化は、CbenchのSusanおよびJpegアプリケーション上での10.1%と8.5%のスピードアップWrt O3の増加を示している。
ProteanコンパイラはLLVMにシームレスに統合され、拡張された本格的なコンパイラとして使用できる。
近い将来、このプロジェクトをオープンソースコミュニティにリリースする予定です。
関連論文リスト
- nncase: An End-to-End Compiler for Efficient LLM Deployment on Heterogeneous Storage Architectures [7.460240094212613]
さまざまなターゲットに対して最適化を統合するために設計された、エンドツーエンドのコンパイルフレームワークであるnncaseを提示する。
nncaseは、異種コンピューティングユニットに適応するためのAuto Vectorize、並列戦略を検索するためのAuto Distribution、オンチップキャッシュのローカリティを最大化するAuto Scheduleの3つの重要なモジュールを統合している。
論文 参考訳(メタデータ) (2025-12-25T08:27:53Z) - QiMeng-NeuComBack: Self-Evolving Translation from IR to Assembly Code [52.66657751895655]
大規模言語モデル(LLM)は、ニューラルコンパイルという魅力的な新しいパラダイムを提供する。
本稿では,IR-to-assemblyコンパイル用に設計された新しいベンチマークデータセットであるNeuComBackを紹介する。
LLMの内部的なプロンプト戦略を進化させる自己進化的プロンプト最適化法を提案する。
論文 参考訳(メタデータ) (2025-11-03T03:20:26Z) - EoRA: Fine-tuning-free Compensation for Compressed LLM with Eigenspace Low-Rank Approximation [84.70637613266835]
EoRAは、圧縮されたLarge Language Modelを低ランク行列で拡張する微調整不要な手法である。
EoRAは、圧縮LDMの精度を回復するために、トレーニングなしの低ランク法よりも一貫して優れている。
論文 参考訳(メタデータ) (2024-10-28T17:59:03Z) - ACPO: AI-Enabled Compiler Framework [1.752593459729982]
本稿では,AI-Enabled Compiler FrameworkのACPOについて述べる。
LLVMには、さまざまな最適化パスにMLモデルを使用するメリットを享受する、シンプルで包括的なツールが提供されている。
LLVMのO3と比較すると,ACPOはPolybenchで4.5%,Cbenchで2.4%の高速化を実現している。
論文 参考訳(メタデータ) (2023-12-15T17:49:24Z) - SparseOptimizer: Sparsify Language Models through Moreau-Yosida
Regularization and Accelerate via Compiler Co-design [0.685316573653194]
本稿では, BERT, ALBERT, GPTなどの大規模言語モデルにおいて, モロー・ヨシダ正規化を利用した新しいディープラーニングであるスペーサーを紹介する。
Sparserのプラグイン・アンド・プレイ機能は、コード修正の必要性を排除し、幅広い大きな言語モデルに対して普遍的に適応可能なツールである。
GLUE, RACE, SQuAD1, SQuAD2などのベンチマークデータセットに関する実証的な評価では、SBERTとSprserは、Sparserを使用すると、その密度の高いデータセットに匹敵するパフォーマンスを実現する。
論文 参考訳(メタデータ) (2023-06-27T17:50:26Z) - Learning Performance-Improving Code Edits [107.21538852090208]
本稿では,大規模言語モデル(LLM)を高レベルプログラム最適化に適用するためのフレームワークを提案する。
まず、競争力のある77,000以上のC++プログラミングサブミッションペアによる、人間のプログラマによるパフォーマンス改善編集のデータセットをキュレートする。
提案手法は,検索をベースとした少数ショットプロンプトとチェーン・オブ・シンクレットを提案し,その微調整には,自己再生に基づく性能条件付き生成と合成データ拡張が含まれる。
論文 参考訳(メタデータ) (2023-02-15T18:59:21Z) - Learning to Superoptimize Real-world Programs [79.4140991035247]
本稿では,ニューラルシークエンス・ツー・シーケンス・モデルを用いて,実世界のプログラムを最適化するフレームワークを提案する。
我々は、x86-64アセンブリでオープンソースプロジェクトから抽出された25万以上の実世界の関数からなるデータセットであるBig Assemblyベンチマークを紹介した。
論文 参考訳(メタデータ) (2021-09-28T05:33:21Z) - Enabling Retargetable Optimizing Compilers for Quantum Accelerators via
a Multi-Level Intermediate Representation [78.8942067357231]
我々は、最適化され、再ターゲット可能で、事前コンパイルが可能なマルチレベル量子古典中間表現(IR)を提案する。
ゲートベースのOpenQASM 3言語全体をサポートし、共通量子プログラミングパターンのカスタム拡張と構文の改善を提供します。
私たちの研究は、通常のPythonのアプローチよりも1000倍高速で、スタンドアロンの量子言語コンパイラよりも5~10倍高速なコンパイル時間を実現しています。
論文 参考訳(メタデータ) (2021-09-01T17:29:47Z) - A Reinforcement Learning Environment for Polyhedral Optimizations [68.8204255655161]
マルコフ決定過程(MDP)として多面体モデルにおける法的変換空間の形状に依存しない定式化を提案する。
変換を使う代わりに、定式化は可能なスケジュールの抽象空間に基づいている。
我々の総合的MDP定式化は、強化学習を用いて幅広いループで最適化ポリシーを学習することを可能にする。
論文 参考訳(メタデータ) (2021-04-28T12:41:52Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。