論文の概要: Agentic Auto-Scheduling: An Experimental Study of LLM-Guided Loop Optimization
- arxiv url: http://arxiv.org/abs/2511.00592v1
- Date: Sat, 01 Nov 2025 15:32:34 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-11-05 16:37:26.855727
- Title: Agentic Auto-Scheduling: An Experimental Study of LLM-Guided Loop Optimization
- Title(参考訳): エージェント自動スケジューリング:LLM誘導ループ最適化の実験的検討
- Authors: Massinissa Merouani, Islem Kara Bernou, Riyadh Baghdadi,
- Abstract要約: 大規模言語モデル(LLM)は、コンパイラとのクローズドループインタラクションを通じてプロセスをガイドする。
ComPilotは、LLMが特定のループネストのコンパイラへの変換を提案するフィードバックループを確立する。
コンパイラは変換を試み、合法性ステータスを報告し、スピードアップまたはスローダウンを測定します。
ComPilotは、元のコードに対して2.66x(単一実行)と3.54x(ベスト・オブ・5実行)の幾何平均スピードアップを達成する。
- 参考スコア(独自算出の注目度): 0.9558392439655014
- License: http://creativecommons.org/licenses/by-sa/4.0/
- Abstract: Automatic code optimization remains a difficult challenge, particularly for complex loop nests on modern hardware. This paper investigates a novel approach to code optimization where Large Language Models (LLMs) guide the process through a closed-loop interaction with a compiler. We present ComPilot, an experimental framework that leverages off-the-shelf LLMs, without any task-specific fine-tuning, as interactive optimization agents. ComPilot establishes a feedback loop where an LLM proposes transformations for a given loop nest to a compiler. The compiler attempts the transformations, reporting back legality status and measured speedup or slowdown. The LLM utilizes this concrete feedback to iteratively refine its optimization strategy. Our extensive evaluation across the PolyBench benchmark suite demonstrates the effectiveness of this zero-shot approach. ComPilot achieves geometric mean speedups of 2.66x (single run) and 3.54x (best-of-5 runs) over the original code. Furthermore, ComPilot demonstrates competitive performance against the state-of-the-art Pluto polyhedral optimizer, outperforming it in many cases. This experimental study demonstrates that general-purpose LLMs can effectively guide the code optimization process when grounded by compiler feedback, opening promising research directions for agentic AI in code optimization.
- Abstract(参考訳): コードの自動最適化は、特に現代のハードウェアの複雑なループネストにとって、依然として難しい課題である。
本稿では,Large Language Models (LLMs) がコンパイラとのクローズドループインタラクションを通じてプロセスをガイドする,新しいコード最適化手法について検討する。
対話型最適化エージェントとして,タスク固有の微調整を一切行わず,既製のLLMを利用する実験フレームワークであるComPilotを提案する。
ComPilotは、LLMが特定のループネストのコンパイラへの変換を提案するフィードバックループを確立する。
コンパイラは変換を試み、合法性ステータスを報告し、スピードアップまたはスローダウンを測定します。
LLMはこの具体的なフィードバックを利用して最適化戦略を反復的に洗練する。
The PolyBench benchmark suite we showed the effective of this zero-shot approach。
ComPilotは、元のコードに対して2.66x(単一実行)と3.54x(ベスト・オブ・5実行)の幾何平均スピードアップを達成する。
さらに、ComPilotは最先端のPluto多面体オプティマイザと競合する性能を示し、多くのケースでその性能を上回っている。
この実験により、汎用LLMは、コンパイラフィードバックを基礎としてコード最適化プロセスを効果的に導出し、コード最適化におけるエージェントAIの有望な研究方向を導出できることが示されている。
関連論文リスト
- REASONING COMPILER: LLM-Guided Optimizations for Efficient Model Serving [6.19179006129561]
本稿では,逐次的かつコンテキスト対応な意思決定プロセスとして最適化を定式化する,新しいコンパイルフレームワーク(Dubbed Reasoning)を提案する。
提案手法は,LLM誘導推論がコンパイラ最適化のランドスケープを変革する可能性を示す。
論文 参考訳(メタデータ) (2025-06-02T07:02:46Z) - Scaffolded Language Models with Language Supervision for Mixed-Autonomy: A Survey [52.00674453604779]
本調査は,戦後のLM周辺における新規構造物の設計と最適化に関する文献を整理した。
本稿では,この階層構造を足場型LMと呼び,ツールを用いた多段階プロセスに統合されたLMに焦点を当てる。
論文 参考訳(メタデータ) (2024-10-21T18:06:25Z) - A Reinforcement Learning Environment for Automatic Code Optimization in the MLIR Compiler [0.10923877073891444]
本稿では,MLIRコンパイラ研究の促進を目的とした,MLIRコンパイラの最初のRL環境について紹介する。
また、より単純なアクション部分空間の積として作用空間の新たな定式化を提案し、より効率的かつ効率的な最適化を可能にした。
論文 参考訳(メタデータ) (2024-09-17T10:49:45Z) - Should AI Optimize Your Code? A Comparative Study of Classical Optimizing Compilers Versus Current Large Language Models [0.0]
大規模言語モデル(LLM)は、コード最適化に革命をもたらすAIアプローチの可能性に関する興味深い疑問を提起する。
この作業は、コンパイラコミュニティにとって重要な質問に答えることを目的としている。
本稿では3つの古典最適化コンパイラと2つの最近の大規模言語モデルの比較分析を行う。
論文 参考訳(メタデータ) (2024-06-17T23:26:41Z) - LLM as a Complementary Optimizer to Gradient Descent: A Case Study in Prompt Tuning [69.95292905263393]
グラデーションベースとハイレベルなLLMは、協調最適化フレームワークを効果的に組み合わせることができることを示す。
本稿では,これらを相互に補完し,組み合わせた最適化フレームワークを効果的に連携させることができることを示す。
論文 参考訳(メタデータ) (2024-05-30T06:24:14Z) - Compiler generated feedback for Large Language Models [3.86901256759401]
我々は,LLVMアセンブリのコードサイズを最適化するために,コンパイラフィードバックを備えたLarge Language Modelを用いたコンパイラ最適化において,新しいパラダイムを導入する。
このモデルは、最適化されていないLLVM IRを入力として取り、最適化されたIR、最適な最適化パス、最適化されていないIRと最適化されたIRの両方の命令数を生成する。
論文 参考訳(メタデータ) (2024-03-18T23:25:13Z) - M-L2O: Towards Generalizable Learning-to-Optimize by Test-Time Fast
Self-Adaptation [145.7321032755538]
L2O(Learning to Optimize)は、複雑なタスクの最適化手順を著しく加速させるため、注目を集めている。
本稿では, アウト・オブ・ディストリビューションタスクへの高速なテスト時間自己適応を実現するL2Oをメタトレーニングすることで, このオープンな課題に対する潜在的な解決策を検討する。
論文 参考訳(メタデータ) (2023-02-28T19:23:20Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。