論文の概要: ECO: Enhanced Code Optimization via Performance-Aware Prompting for Code-LLMs
- arxiv url: http://arxiv.org/abs/2510.10517v1
- Date: Sun, 12 Oct 2025 09:29:24 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-14 18:06:29.985484
- Title: ECO: Enhanced Code Optimization via Performance-Aware Prompting for Code-LLMs
- Title(参考訳): ECO: コード-LLMのパフォーマンス保証によるコード最適化の強化
- Authors: Su-Hyeon Kim, Joonghyuk Hahn, Sooyoung Cha, Yo-Sub Han,
- Abstract要約: ECOはコード最適化のためのパフォーマンス対応プロンプトフレームワークである。
私たちの経験的研究は、ECOがコード-LLMの効率的なコード生成能力を大幅に改善することを示している。
- 参考スコア(独自算出の注目度): 10.020128936428078
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Code runtime optimization-the task of rewriting a given code to a faster one-remains challenging, as it requires reasoning about performance trade-offs involving algorithmic and structural choices. Recent approaches employ code-LLMs with slow-fast code pairs provided as optimization guidance, but such pair-based methods obscure the causal factors of performance gains and often lead to superficial pattern imitation rather than genuine performance reasoning. We introduce ECO, a performance-aware prompting framework for code optimization. ECO first distills runtime optimization instructions (ROIs) from reference slow-fast code pairs; Each ROI describes root causes of inefficiency and the rationales that drive performance improvements. For a given input code, ECO in parallel employs (i) a symbolic advisor to produce a bottleneck diagnosis tailored to the code, and (ii) an ROI retriever to return related ROIs. These two outputs are then composed into a performance-aware prompt, providing actionable guidance for code-LLMs. ECO's prompts are model-agnostic, require no fine-tuning, and can be easily prepended to any code-LLM prompt. Our empirical studies highlight that ECO prompting significantly improves code-LLMs' ability to generate efficient code, achieving speedups of up to 7.81x while minimizing correctness loss.
- Abstract(参考訳): コード実行時の最適化 - アルゴリズムや構造的な選択を含むパフォーマンス上のトレードオフを推論する必要があるため、与えられたコードをより高速な1つの残量に書き換える作業は難しい。
近年のアプローチでは、最適化ガイダンスとして低速なコードペアを備えたコードLLMが採用されているが、このようなペアベースの手法は、パフォーマンス向上の因果的要因を曖昧にし、真のパフォーマンス推論よりも表面的なパターン模倣につながることが多い。
コード最適化のためのパフォーマンス対応プロンプトフレームワークであるECOを紹介する。
ECOはまず、参照の遅いコードペアから実行時の最適化命令(ROI)を抽出する。
与えられた入力コードに対して、並行してECOが使用される
一 コードに適合したボトルネック診断を作成するための象徴的助言者及び
(ii)関連するROIを返すROIレトリバー。
これら2つの出力はパフォーマンス対応プロンプトに構成され、コード-LLMに対して実行可能なガイダンスを提供する。
ECOのプロンプトはモデルに依存しず、微調整を必要とせず、どんなコード-LLMプロンプトにも容易に修正できる。
ECOがコード-LLMの効率的なコード生成能力を大幅に向上し、最大7.81倍のスピードアップを実現し、精度の損失を最小化しています。
関連論文リスト
- LLM4EFFI: Leveraging Large Language Models to Enhance Code Efficiency and Correctness [38.399282089600284]
大規模言語モデル(LLM)は、コード生成において素晴らしいパフォーマンスを示している。
ulineLarge ulineLanguage ulineModel for Code ulineEfficiencyは、LLMが効率性と正確性の両方のバランスをとるコードを生成することができる新しいフレームワークである。
論文 参考訳(メタデータ) (2025-02-17T07:01:18Z) - CodeDPO: Aligning Code Models with Self Generated and Verified Source Code [52.70310361822519]
我々は、コード生成に好み学習を統合するフレームワークであるCodeDPOを提案し、コードの正確性と効率性という2つの重要なコード優先要因を改善した。
CodeDPOは、コードとテストケースを同時に生成、評価するセルフジェネレーション・アンド・バリデーションメカニズムを利用して、新しいデータセット構築方法を採用している。
論文 参考訳(メタデータ) (2024-10-08T01:36:15Z) - A Reinforcement Learning Environment for Automatic Code Optimization in the MLIR Compiler [0.10923877073891444]
本稿では,MLIRコンパイラ研究の促進を目的とした,MLIRコンパイラの最初のRL環境について紹介する。
また、より単純なアクション部分空間の積として作用空間の新たな定式化を提案し、より効率的かつ効率的な最適化を可能にした。
論文 参考訳(メタデータ) (2024-09-17T10:49:45Z) - RTLRewriter: Methodologies for Large Models aided RTL Code Optimization [21.61206887869307]
本稿では,RTLコードの最適化に大規模なモデルを活用する革新的なフレームワークであるRTLRewriterを紹介する。
回路分割パイプラインを高速な合成と効率的な書き換えに利用する。
特別な検索エンジンは、有用な最適化ガイド、アルゴリズム、コードスニペットを特定するように設計されている。
論文 参考訳(メタデータ) (2024-09-04T09:59:37Z) - Should AI Optimize Your Code? A Comparative Study of Classical Optimizing Compilers Versus Current Large Language Models [0.0]
大規模言語モデル(LLM)は、コード最適化に革命をもたらすAIアプローチの可能性に関する興味深い疑問を提起する。
この作業は、コンパイラコミュニティにとって重要な質問に答えることを目的としている。
本稿では3つの古典最適化コンパイラと2つの最近の大規模言語モデルの比較分析を行う。
論文 参考訳(メタデータ) (2024-06-17T23:26:41Z) - A Problem-Oriented Perspective and Anchor Verification for Code Optimization [43.28045750932116]
大規模言語モデル(LLM)は、様々なプログラミングタスクを解く際、顕著な能力を示している。
本稿では,LLMが最小実行時間に最適化する能力について検討する。
論文 参考訳(メタデータ) (2024-06-17T16:10:10Z) - Factor Graph Optimization of Error-Correcting Codes for Belief Propagation Decoding [62.25533750469467]
低密度パリティ・チェック (LDPC) コードは、他の種類のコードに対していくつかの利点がある。
提案手法は,既存の人気符号の復号性能を桁違いに向上させる。
論文 参考訳(メタデータ) (2024-06-09T12:08:56Z) - StepCoder: Improve Code Generation with Reinforcement Learning from
Compiler Feedback [58.20547418182074]
2つの主要コンポーネントからなるコード生成の新しいフレームワークであるStepCoderを紹介します。
CCCSは、長いシーケンスのコード生成タスクをCurriculum of Code Completion Subtaskに分割することで、探索課題に対処する。
FGOは、未実行のコードセグメントをマスクすることでのみモデルを最適化し、Fine-Grained Optimizationを提供する。
提案手法は,出力空間を探索し,対応するベンチマークにおいて最先端の手法より優れた性能を発揮する。
論文 参考訳(メタデータ) (2024-02-02T13:14:31Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。