論文の概要: PerfCoder: Large Language Models for Interpretable Code Performance Optimization
- arxiv url: http://arxiv.org/abs/2512.14018v1
- Date: Tue, 16 Dec 2025 02:30:04 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-12-17 16:49:26.552007
- Title: PerfCoder: Large Language Models for Interpretable Code Performance Optimization
- Title(参考訳): PerfCoder: 解釈可能なコードパフォーマンス最適化のための大規模言語モデル
- Authors: Jiuding Yang, Shengyao Lu, Hongxuan Liu, Shayan Shirahmad Gale Bagi, Zahra Fazel, Tomasz Czajkowski, Di Niu,
- Abstract要約: PerfCoderは、ソースコードからパフォーマンス向上したコードを生成するために設計された、大規模な言語モデル(LLM)のファミリーである。
PerfCoderは、人間が読めるアノテーションで、現実世界の最適化トラジェクトリのキュレートされたコレクションに微調整されている。
PerfCoderは、実行時のスピードアップと効率的な最適化率の両方で、既存のモデルをすべて上回っている。
- 参考スコア(独自算出の注目度): 15.79612555952707
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Large language models (LLMs) have achieved remarkable progress in automatic code generation, yet their ability to produce high-performance code remains limited--a critical requirement in real-world software systems. We argue that current LLMs struggle not only due to data scarcity but, more importantly, because they lack supervision that guides interpretable and effective performance improvements. In this work, we introduce PerfCoder, a family of LLMs specifically designed to generate performance-enhanced code from source code via interpretable, customized optimizations. PerfCoder is fine-tuned on a curated collection of real-world optimization trajectories with human-readable annotations, and preference-aligned by reinforcement fine-tuning using runtime measurements, enabling it to propose input-specific improvement strategies and apply them directly without relying on iterative refinement. On the PIE code performance benchmark, PerfCoder surpasses all existing models in both runtime speedup and effective optimization rate, demonstrating that performance optimization cannot be achieved by scale alone but requires optimization stratetgy awareness. In addition, PerfCoder can generate interpretable feedback about the source code, which, when provided as input to a larger LLM in a planner-and-optimizer cooperative workflow, can further improve outcomes. Specifically, we elevate the performance of 32B models and GPT-5 to new levels on code optimization, substantially surpassing their original performance.
- Abstract(参考訳): 大規模言語モデル(LLM)は、自動コード生成において顕著な進歩を遂げているが、高性能なコードを生成する能力は限定的であり、現実のソフトウェアシステムにおいて重要な要件である。
現在のLLMはデータ不足のためだけでなく、より重要な点として、解釈可能かつ効果的なパフォーマンス改善を導くための監視が欠如していることを挙げる。
本研究では,解釈可能でカスタマイズされた最適化を通じて,ソースコードからパフォーマンス向上されたコードを生成するように設計されたLLMのファミリであるPerfCoderを紹介する。
PerfCoderは、人間可読アノテーションによる実世界の最適化トラジェクトリのキュレートされたコレクションを微調整し、実行時測定による強化微調整によって優先順位を調整することで、インプット固有の改善戦略を提案し、反復的な改善に頼ることなく直接適用することができる。
PIEコードパフォーマンスベンチマークでは、PerfCoderは実行時のスピードアップと効率的な最適化速度の両方で既存のモデルをすべて上回り、パフォーマンスの最適化はスケールだけでは達成できないが、最適化戦略の意識を必要とすることを実証している。
さらに、PerfCoderはソースコードに関する解釈可能なフィードバックを生成することができる。これは、プランナーと最適化の協調ワークフローにおいて、より大きなLLMへの入力として提供されると、結果をさらに改善することができる。
具体的には,32BモデルとGPT-5の性能をコード最適化の新たなレベルに引き上げる。
関連論文リスト
- Afterburner: Reinforcement Learning Facilitates Self-Improving Code Efficiency Optimization [46.33639431414019]
大規模言語モデルは機能的に正しいソリューションを生成するが、コード効率が不足することが多い。
この問題に対処する新しいテストタイム反復最適化フレームワークを導入する。
論文 参考訳(メタデータ) (2025-05-29T12:14:29Z) - PerfCodeGen: Improving Performance of LLM Generated Code with Execution Feedback [78.89596149768458]
大規模言語モデル(LLM)は、ソフトウェア開発タスクを支援するために広く採用されている。
LLM生成コードの性能を向上させるトレーニングフリーフレームワークPerfCodeGenを提案する。
論文 参考訳(メタデータ) (2024-11-18T06:22:38Z) - CodeDPO: Aligning Code Models with Self Generated and Verified Source Code [52.70310361822519]
我々は、コード生成に好み学習を統合するフレームワークであるCodeDPOを提案し、コードの正確性と効率性という2つの重要なコード優先要因を改善した。
CodeDPOは、コードとテストケースを同時に生成、評価するセルフジェネレーション・アンド・バリデーションメカニズムを利用して、新しいデータセット構築方法を採用している。
論文 参考訳(メタデータ) (2024-10-08T01:36:15Z) - Measuring Code Efficiency Optimization Capabilities with ACEOB [7.4056083791645495]
モデルトレーニングデータセットの「コードパターン」を詳細に分析し、人間の手書きコードを慎重に探索する。
95,359組の効率非効率コードからなる自動コード効率最適化ベンチマーク(ACEOB)を導入する。
私たちの知る限り、ACEOBはPythonコードの効率最適化に特化した最初のデータセットです。
論文 参考訳(メタデータ) (2024-08-23T10:10:37Z) - A Problem-Oriented Perspective and Anchor Verification for Code Optimization [43.28045750932116]
大規模言語モデル(LLM)は、様々なプログラミングタスクを解く際、顕著な能力を示している。
本稿では,LLMが最小実行時間に最適化する能力について検討する。
論文 参考訳(メタデータ) (2024-06-17T16:10:10Z) - Learning Performance-Improving Code Edits [107.21538852090208]
本稿では,大規模言語モデル(LLM)を高レベルプログラム最適化に適用するためのフレームワークを提案する。
まず、競争力のある77,000以上のC++プログラミングサブミッションペアによる、人間のプログラマによるパフォーマンス改善編集のデータセットをキュレートする。
提案手法は,検索をベースとした少数ショットプロンプトとチェーン・オブ・シンクレットを提案し,その微調整には,自己再生に基づく性能条件付き生成と合成データ拡張が含まれる。
論文 参考訳(メタデータ) (2023-02-15T18:59:21Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。