論文の概要: Beyond Pass-by-Pass Optimization: Intent-Driven IR Optimization with Large Language Models
- arxiv url: http://arxiv.org/abs/2602.18511v1
- Date: Thu, 19 Feb 2026 13:48:51 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-02-24 17:42:02.119437
- Title: Beyond Pass-by-Pass Optimization: Intent-Driven IR Optimization with Large Language Models
- Title(参考訳): パス・バイ・パス最適化を超えて:大規模言語モデルを用いたインテント駆動型IR最適化
- Authors: Lei Qiu, Zi Yang, Fang Lyu, Ming Zhong, Huimin Cui, Xiaobing Feng,
- Abstract要約: IntOptは、IR最適化をインテントの定式化、インテントの洗練、インテントの実現の3段階に分類する。
Intは200プログラムのテストセットで90.5%の精度と平均2.660倍のスピードアップを達成した。
- 参考スコア(独自算出の注目度): 5.5968503644718695
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Modern compilers optimize programs through a sequence of modular passes over intermediate representations (IR). While this pass-by-pass paradigm offers engineering benefits, it suffers from a pass coordination problem: locally beneficial transformations may block more profitable optimizations in later stages. This limitation stems from the lack of an explicit notion of optimization intent, defined as a holistic strategy for coordinating multiple transformations toward a global performance objective. Recent LLM-based approaches formulate IR optimization as an end-to-end generation task, thereby avoiding the traditional pass-by-pass structure. However, optimization intent remains implicit in these methods, forcing models to jointly infer optimization strategy and generate low-level transformations, which limits both correctness and performance. We propose IntOpt, the first intent-driven IR optimizer that explicitly separates high-level optimization intent from low-level analysis and transformation. IntOpt organizes IR optimization into three stages: intent formulation, intent refinement, and intent realization, enabling globally coordinated transformations. Experiments show that IntOpt achieves 90.5% verified correctness and 2.660x average speedup on 200-program test set, outperforming state-of-the-art LLM-based optimizers in both correctness and performance, and surpassing modern compiler with the -O3 option on 37 benchmarks with speedups of up to 272.60x.
- Abstract(参考訳): 現代のコンパイラは、中間表現(IR)を介してモジュールパスのシーケンスを通じてプログラムを最適化する。
このパス・バイ・パスのパラダイムはエンジニアリング上の利点を提供するが、パス調整の問題に悩まされる。
この制限は、グローバルなパフォーマンス目標に向けて複数の変換をコーディネートする全体戦略として定義された最適化意図の明確な概念が欠如していることに起因している。
最近のLCMベースのアプローチでは、IR最適化をエンドツーエンド生成タスクとして定式化することで、従来のパス・バイ・パス構造を回避することができる。
しかし、これらの手法では最適化意図が暗黙的に残っており、モデルに最適化戦略を共同で推論させ、低レベルの変換を発生させ、正確性と性能の両方を制限する。
IntOptは、インテント駆動型IRオプティマイザで、高レベル最適化の意図を低レベル分析と変換から明確に分離する。
IntOptは、IR最適化をインテントの定式化、インテントの洗練、インテントの実現の3段階に分類し、グローバルなコーディネート変換を可能にする。
実験の結果、IntOptは200プログラムテストセットで90.5%の精度と平均2.660倍のスピードアップを達成し、最先端のLLMベースのオプティマイザを精度と性能の両方で上回り、37ベンチマークで-O3オプションで最大272.60倍のスピードアップを実現した。
関連論文リスト
- Optimistic Online-to-Batch Conversions for Accelerated Convergence and Universality [61.14065222161553]
我々は,古典的ネステロフの加速度勾配法が最適収束を達成するような,滑らかな目的を持ったオフライン凸最適化について検討した。
理論的に楽観性を取り入れた新しい楽観的オンライン・バッチ変換を提案する。
我々は,オンライン・バッチ変換のレンズを用いて,強凸・滑らかな目標に対する最適加速収束率を初めて達成した。
論文 参考訳(メタデータ) (2025-11-10T01:07:51Z) - SemOpt: LLM-Driven Code Optimization via Rule-Based Analysis [7.451702651736553]
SemOptは静的プログラム分析を利用して最適化可能なコードセグメントを正確に識別し、対応する最適化戦略を検索し、最適化結果を生成するフレームワークである。
151の最適化タスクを含むベンチマークにおいて、SemOptは、ベースラインに比べて1.38から28倍の最適化を成功させることにより、異なるLLM下での有効性を示す。
論文 参考訳(メタデータ) (2025-10-18T07:44:18Z) - Scalable Min-Max Optimization via Primal-Dual Exact Pareto Optimization [66.51747366239299]
拡張ラグランジアンに基づくmin-max問題のスムーズな変種を提案する。
提案アルゴリズムは, 段階的戦略よりも目的数で拡張性が高い。
論文 参考訳(メタデータ) (2025-03-16T11:05:51Z) - Make Optimization Once and for All with Fine-grained Guidance [78.14885351827232]
Learning to Optimize (L2O)は、統合ニューラルネットワークによる最適化効率を向上させる。
L2Oパラダイムは、例えば、リフィット、目に見えない解決策を反復的または直接的に生成するなど、大きな成果を達成する。
そこで本研究では,Diff-L2Oと呼ばれる学習最適化のための一般的なフレームワークについて検討した。
論文 参考訳(メタデータ) (2025-03-14T14:48:12Z) - Search-Based LLMs for Code Optimization [16.843870288512363]
開発者によって書かれたコードは、通常効率上の問題に悩まされ、様々なパフォーマンス上のバグを含んでいる。
最近の研究は、タスクをシーケンス生成問題とみなし、大規模言語モデル(LLM)のようなディープラーニング(DL)技術を活用している。
改良された最適化手法の反復的洗練と発見を可能にする,SBLLM という検索ベース LLM フレームワークを提案する。
論文 参考訳(メタデータ) (2024-08-22T06:59:46Z) - A Problem-Oriented Perspective and Anchor Verification for Code Optimization [43.28045750932116]
大規模言語モデル(LLM)は、様々なプログラミングタスクを解く際、顕著な能力を示している。
本稿では,LLMが最小実行時間に最適化する能力について検討する。
論文 参考訳(メタデータ) (2024-06-17T16:10:10Z) - ALPS: Improved Optimization for Highly Sparse One-Shot Pruning for Large Language Models [26.150559375072476]
ALPSは,演算子分割法と事前条件付き勾配共役型後処理法を用いて,プルーニング問題に対処する最適化ベースのフレームワークである。
提案手法はベクトル化とGPU並列性を有効利用しながら収束を加速し理論的に保証する新しい手法を取り入れている。
OPT-30Bモデルでは70%の間隔で、ALPSはWikiTextデータセットにおけるテストの難易度を13%削減し、既存の手法と比較してゼロショットベンチマークのパフォーマンスを19%改善した。
論文 参考訳(メタデータ) (2024-06-12T02:57:41Z) - LLM as a Complementary Optimizer to Gradient Descent: A Case Study in Prompt Tuning [69.95292905263393]
グラデーションベースとハイレベルなLLMは、協調最適化フレームワークを効果的に組み合わせることができることを示す。
本稿では,これらを相互に補完し,組み合わせた最適化フレームワークを効果的に連携させることができることを示す。
論文 参考訳(メタデータ) (2024-05-30T06:24:14Z) - Break a Lag: Triple Exponential Moving Average for Enhanced Optimization [2.0199251985015434]
本稿では,三重指数移動平均のパワーを利用する新しい最適化手法であるFAMEを紹介する。
FAMEはデータダイナミクスに対する応答性を高め、トレンド識別ラグを緩和し、学習効率を最適化する。
包括的評価は、画像分類、オブジェクト検出、セマンティックセグメンテーションを含む様々なコンピュータビジョンタスクを含み、FAMEを30の異なるアーキテクチャに統合する。
論文 参考訳(メタデータ) (2023-06-02T10:29:33Z) - Learning to Generalize Provably in Learning to Optimize [185.71326306329678]
最適化学習(L2O)は、データ駆動アプローチによる最適化設計を自動化することで、人気が高まっている。
現在のL2O法は、少なくとも2回は一般化性能の低下に悩まされることが多い。
我々はこの2つのメトリクスを平坦性を考慮した正規化器としてL2Oフレームワークに組み込むことを提案する。
論文 参考訳(メタデータ) (2023-02-22T01:17:31Z) - Learning to Superoptimize Real-world Programs [79.4140991035247]
本稿では,ニューラルシークエンス・ツー・シーケンス・モデルを用いて,実世界のプログラムを最適化するフレームワークを提案する。
我々は、x86-64アセンブリでオープンソースプロジェクトから抽出された25万以上の実世界の関数からなるデータセットであるBig Assemblyベンチマークを紹介した。
論文 参考訳(メタデータ) (2021-09-28T05:33:21Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。