論文の概要: FasterPy: An LLM-based Code Execution Efficiency Optimization Framework
- arxiv url: http://arxiv.org/abs/2512.22827v1
- Date: Sun, 28 Dec 2025 07:43:08 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-12-30 22:37:30.24328
- Title: FasterPy: An LLM-based Code Execution Efficiency Optimization Framework
- Title(参考訳): FasterPy: LLMベースのコード実行効率最適化フレームワーク
- Authors: Yue Wu, Minghao Han, Ruiyin Li, Peng Liang, Amjed Tahir, Zengyang Li, Qiong Feng, Mojtaba Shahin,
- Abstract要約: コードはしばしばパフォーマンスのバグに悩まされる。
従来のルールベースのメソッドは、特定のパフォーマンスバグに対するルールを手動で設計し、保守することに依存しています。
我々は,Pythonコードの実行効率を最適化するために,大規模言語モデルを適用するフレームワークであるFasterPyを提案する。
- 参考スコア(独自算出の注目度): 11.766544835516974
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Code often suffers from performance bugs. These bugs necessitate the research and practice of code optimization. Traditional rule-based methods rely on manually designing and maintaining rules for specific performance bugs (e.g., redundant loops, repeated computations), making them labor-intensive and limited in applicability. In recent years, machine learning and deep learning-based methods have emerged as promising alternatives by learning optimization heuristics from annotated code corpora and performance measurements. However, these approaches usually depend on specific program representations and meticulously crafted training datasets, making them costly to develop and difficult to scale. With the booming of Large Language Models (LLMs), their remarkable capabilities in code generation have opened new avenues for automated code optimization. In this work, we proposed FasterPy, a low-cost and efficient framework that adapts LLMs to optimize the execution efficiency of Python code. FasterPy combines Retrieval-Augmented Generation (RAG), supported by a knowledge base constructed from existing performance-improving code pairs and corresponding performance measurements, with Low-Rank Adaptation (LoRA) to enhance code optimization performance. Our experimental results on the Performance Improving Code Edits (PIE) benchmark demonstrate that our method outperforms existing models on multiple metrics. The FasterPy tool and the experimental results are available at https://github.com/WuYue22/fasterpy.
- Abstract(参考訳): コードはしばしばパフォーマンスのバグに悩まされる。
これらのバグは、コードの最適化の研究と実践を必要とする。
従来のルールベースのメソッドは、特定のパフォーマンスバグ(例えば、冗長ループ、繰り返し計算)のルールを手動で設計し、保守することに依存しており、労働集約的で適用性に制限がある。
近年,アノテートコードコーパスと性能測定から最適化ヒューリスティックスを学ぶことで,機械学習とディープラーニングに基づく手法が有望な代替手段として浮上している。
しかしながら、これらのアプローチは通常、特定のプログラム表現と慎重に構築されたトレーニングデータセットに依存しており、開発にコストがかかり、スケールが難しい。
LLM(Large Language Models)のブームにより、コード生成におけるその顕著な能力は、自動化されたコード最適化のための新たな道を開いた。
本研究では,Python コードの実行効率を最適化するために LLM を適応させる,低コストかつ効率的なフレームワークである FasterPy を提案する。
FasterPyは、既存のパフォーマンス改善コードペアとそれに対応するパフォーマンス測定から構築された知識ベースによってサポートされているRetrieval-Augmented Generation(RAG)と、ローランド適応(LoRA)を組み合わせて、コード最適化のパフォーマンスを向上させる。
PIE(Performance Improving Code Edits)ベンチマークによる実験結果から,本手法は既存のモデルを複数のメトリクスで上回る性能を示した。
FasterPyツールと実験結果はhttps://github.com/WuYue22/fasterpy.comで公開されている。
関連論文リスト
- PerfCoder: Large Language Models for Interpretable Code Performance Optimization [15.79612555952707]
PerfCoderは、ソースコードからパフォーマンス向上したコードを生成するために設計された、大規模な言語モデル(LLM)のファミリーである。
PerfCoderは、人間が読めるアノテーションで、現実世界の最適化トラジェクトリのキュレートされたコレクションに微調整されている。
PerfCoderは、実行時のスピードアップと効率的な最適化率の両方で、既存のモデルをすべて上回っている。
論文 参考訳(メタデータ) (2025-12-16T02:30:04Z) - LLM4EFFI: Leveraging Large Language Models to Enhance Code Efficiency and Correctness [38.399282089600284]
大規模言語モデル(LLM)は、コード生成において素晴らしいパフォーマンスを示している。
ulineLarge ulineLanguage ulineModel for Code ulineEfficiencyは、LLMが効率性と正確性の両方のバランスをとるコードを生成することができる新しいフレームワークである。
論文 参考訳(メタデータ) (2025-02-17T07:01:18Z) - PerfCodeGen: Improving Performance of LLM Generated Code with Execution Feedback [78.89596149768458]
大規模言語モデル(LLM)は、ソフトウェア開発タスクを支援するために広く採用されている。
LLM生成コードの性能を向上させるトレーニングフリーフレームワークPerfCodeGenを提案する。
論文 参考訳(メタデータ) (2024-11-18T06:22:38Z) - CodeDPO: Aligning Code Models with Self Generated and Verified Source Code [52.70310361822519]
我々は、コード生成に好み学習を統合するフレームワークであるCodeDPOを提案し、コードの正確性と効率性という2つの重要なコード優先要因を改善した。
CodeDPOは、コードとテストケースを同時に生成、評価するセルフジェネレーション・アンド・バリデーションメカニズムを利用して、新しいデータセット構築方法を採用している。
論文 参考訳(メタデータ) (2024-10-08T01:36:15Z) - ECCO: Can We Improve Model-Generated Code Efficiency Without Sacrificing Functional Correctness? [12.862825053595934]
ECCOは、自然言語(NL)ベースのコード生成と履歴ベースのコード編集という、2つのパラダイムを通じてプログラム効率を評価するためのベンチマークである。
実行情報の追加は機能的正確性を維持するのによく役立ち、NLフィードバックは効率を向上する。
論文 参考訳(メタデータ) (2024-07-19T05:47:40Z) - Exploring Data-Efficient Adaptation of Large Language Models for Code Generation [64.5583894165813]
コード生成のための誤り駆動学習を用いたデータ効率向上のための新しい適応手法DEEDを提案する。
実験により、他の主流の微調整手法と比較して、DEEDは訓練データが少なく、優れた性能を発揮することが示された。
論文 参考訳(メタデータ) (2024-02-29T16:09:02Z) - PerfRL: A Small Language Model Framework for Efficient Code Optimization [14.18092813639534]
本稿では,コード最適化の問題に対処する革新的なフレームワークPerfRLを紹介する。
我々のフレームワークは、小型言語モデル(SLM)と強化学習(RL)の機能を活用している。
提案手法は,より短いトレーニング時間とより小さな事前学習モデルを用いて,最先端モデルと比較して,類似あるいはより良い結果が得られる。
論文 参考訳(メタデータ) (2023-12-09T19:50:23Z) - Learning Performance-Improving Code Edits [107.21538852090208]
本稿では,大規模言語モデル(LLM)を高レベルプログラム最適化に適用するためのフレームワークを提案する。
まず、競争力のある77,000以上のC++プログラミングサブミッションペアによる、人間のプログラマによるパフォーマンス改善編集のデータセットをキュレートする。
提案手法は,検索をベースとした少数ショットプロンプトとチェーン・オブ・シンクレットを提案し,その微調整には,自己再生に基づく性能条件付き生成と合成データ拡張が含まれる。
論文 参考訳(メタデータ) (2023-02-15T18:59:21Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。