論文の概要: PEACE: Towards Efficient Project-Level Efficiency Optimization via Hybrid Code Editing
- arxiv url: http://arxiv.org/abs/2510.17142v2
- Date: Tue, 21 Oct 2025 12:02:24 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-25 03:08:11.941047
- Title: PEACE: Towards Efficient Project-Level Efficiency Optimization via Hybrid Code Editing
- Title(参考訳): PEACE:ハイブリッドコード編集による効率的なプロジェクトレベル効率最適化を目指して
- Authors: Xiaoxue Ren, Jun Wan, Yun Peng, Zhongxin Liu, Ming Liang, Dajun Chen, Wei Jiang, Yong Li,
- Abstract要約: 大規模言語モデル(LLM)は、コード生成において重要な能力を示しているが、コード効率の最適化におけるその可能性はまだ未定である。
従来のLLMベースのコード効率最適化アプローチは、関数レベルの最適化と関数間の見落とし相互作用にのみ焦点をあてていた。
自動コード編集によるプロジェクトレベルのコード効率最適化のための新しいハイブリッドフレームワークであるPeaceを提案する。
- 参考スコア(独自算出の注目度): 15.928522604786814
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Large Language Models (LLMs) have demonstrated significant capability in code generation, but their potential in code efficiency optimization remains underexplored. Previous LLM-based code efficiency optimization approaches exclusively focus on function-level optimization and overlook interaction between functions, failing to generalize to real-world development scenarios. Code editing techniques show great potential for conducting project-level optimization, yet they face challenges associated with invalid edits and suboptimal internal functions. To address these gaps, we propose Peace, a novel hybrid framework for Project-level code Efficiency optimization through Automatic Code Editing, which also ensures the overall correctness and integrity of the project. Peace integrates three key phases: dependency-aware optimizing function sequence construction, valid associated edits identification, and efficiency optimization editing iteration. To rigorously evaluate the effectiveness of Peace, we construct PeacExec, the first benchmark comprising 146 real-world optimization tasks from 47 high-impact GitHub Python projects, along with highly qualified test cases and executable environments. Extensive experiments demonstrate Peace's superiority over the state-of-the-art baselines, achieving a 69.2% correctness rate (pass@1), +46.9% opt rate, and 0.840 speedup in execution efficiency. Notably, our Peace outperforms all baselines by significant margins, particularly in complex optimization tasks with multiple functions. Moreover, extensive experiments are also conducted to validate the contributions of each component in Peace, as well as the rationale and effectiveness of our hybrid framework design.
- Abstract(参考訳): 大規模言語モデル(LLM)は、コード生成において重要な能力を示しているが、コード効率の最適化におけるその可能性はまだ未定である。
従来のLLMベースのコード効率最適化アプローチでは、関数レベルの最適化と関数間のオーバールックインタラクションのみに重点を置いており、実際の開発シナリオへの一般化に失敗した。
コード編集技術は,プロジェクトレベルの最適化を行う上で大きな可能性を秘めている。
これらのギャップに対処するため、自動コード編集によるプロジェクトレベルのコード効率最適化のための新しいハイブリッドフレームワークであるPeaceを提案し、プロジェクトの全体的な正しさと整合性を保証する。
Peaceは3つの重要なフェーズを統合している。依存性を意識した関数シーケンス構築、有効な関連する編集識別、効率の最適化編集である。
PeacExecは、47のGitHub Pythonプロジェクトから146の実際の最適化タスクと、高度に資格のあるテストケースと実行環境を含む最初のベンチマークです。
大規模な実験では、平和が最先端のベースラインよりも優れていることを示し、69.2%の正しさ率(pass@1)、+46.9%のオプトレート、0.840の高速化を達成した。
特に、複数の機能を持つ複雑な最適化タスクにおいて、Peaceはすべてのベースラインを大きなマージンで上回ります。
さらに、平和における各コンポーネントの貢献を検証し、ハイブリッドフレームワーク設計の合理性と有効性を検証するための広範な実験も実施されている。
関連論文リスト
- LLM4EFFI: Leveraging Large Language Models to Enhance Code Efficiency and Correctness [38.399282089600284]
大規模言語モデル(LLM)は、コード生成において素晴らしいパフォーマンスを示している。
ulineLarge ulineLanguage ulineModel for Code ulineEfficiencyは、LLMが効率性と正確性の両方のバランスをとるコードを生成することができる新しいフレームワークである。
論文 参考訳(メタデータ) (2025-02-17T07:01:18Z) - ACECode: A Reinforcement Learning Framework for Aligning Code Efficiency and Correctness in Code Language Models [9.4219427550154]
SOAP や PIE のような CodeLLM のコード効率を最適化するための既存のアプローチには、いくつかの制限がある。
ACECodeは、強化学習に基づく微調整フレームワークで、CodeLLMを効率と正確性の2つの目的に合わせる。
ACECodeは4つのSOTA (state-of-the-art) CodeLLMを微調整し、それらのコードをオリジナル、命令調整、PIE調整の3つのベースラインと比較することで評価する。
論文 参考訳(メタデータ) (2024-12-23T04:19:45Z) - Optima: Optimizing Effectiveness and Efficiency for LLM-Based Multi-Agent System [75.25394449773052]
大規模言語モデル (LLM) に基づくマルチエージェントシステム (MAS) は協調的問題解決において顕著な可能性を示している。
通信効率の低下、スケーラビリティの低下、効果的なパラメータ更新方法の欠如などです。
本稿では,コミュニケーション効率とタスク効率を両立させ,これらの課題に対処する新しいフレームワークOptimaを提案する。
論文 参考訳(メタデータ) (2024-10-10T17:00:06Z) - Measuring Code Efficiency Optimization Capabilities with ACEOB [7.4056083791645495]
モデルトレーニングデータセットの「コードパターン」を詳細に分析し、人間の手書きコードを慎重に探索する。
95,359組の効率非効率コードからなる自動コード効率最適化ベンチマーク(ACEOB)を導入する。
私たちの知る限り、ACEOBはPythonコードの効率最適化に特化した最初のデータセットです。
論文 参考訳(メタデータ) (2024-08-23T10:10:37Z) - A Problem-Oriented Perspective and Anchor Verification for Code Optimization [43.28045750932116]
大規模言語モデル(LLM)は、様々なプログラミングタスクを解く際、顕著な能力を示している。
本稿では,LLMが最小実行時間に最適化する能力について検討する。
論文 参考訳(メタデータ) (2024-06-17T16:10:10Z) - LLM as a Complementary Optimizer to Gradient Descent: A Case Study in Prompt Tuning [69.95292905263393]
グラデーションベースとハイレベルなLLMは、協調最適化フレームワークを効果的に組み合わせることができることを示す。
本稿では,これらを相互に補完し,組み合わせた最適化フレームワークを効果的に連携させることができることを示す。
論文 参考訳(メタデータ) (2024-05-30T06:24:14Z) - SEE: Strategic Exploration and Exploitation for Cohesive In-Context Prompt Optimization [8.975505323004427]
大規模言語モデル(LLM)のための新しい結合型インコンテキストプロンプト最適化フレームワークを提案する。
SEEは、メタヒューリスティック最適化の原則を採用し、戦略的に探索と活用を行うスケーラブルで効率的なプロンプト最適化フレームワークである。
SEEは最先端のベースライン法を大幅に上回り、平均性能は13.94、計算コストは58.67である。
論文 参考訳(メタデータ) (2024-02-17T17:47:10Z) - Learning Performance-Improving Code Edits [107.21538852090208]
本稿では,大規模言語モデル(LLM)を高レベルプログラム最適化に適用するためのフレームワークを提案する。
まず、競争力のある77,000以上のC++プログラミングサブミッションペアによる、人間のプログラマによるパフォーマンス改善編集のデータセットをキュレートする。
提案手法は,検索をベースとした少数ショットプロンプトとチェーン・オブ・シンクレットを提案し,その微調整には,自己再生に基づく性能条件付き生成と合成データ拡張が含まれる。
論文 参考訳(メタデータ) (2023-02-15T18:59:21Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。