論文の概要: Leveraging Large Language Models to Detect Missed Peephole Optimizations
- arxiv url: http://arxiv.org/abs/2508.16125v1
- Date: Fri, 22 Aug 2025 06:36:42 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-08-25 16:42:36.269997
- Title: Leveraging Large Language Models to Detect Missed Peephole Optimizations
- Title(参考訳): 失敗するピープホール最適化を検出するために大規模言語モデルを活用する
- Authors: Zhenyang Xu, Hongxu Xu, Yongqiang Tian, Xintong Zhou, Chengnian Sun,
- Abstract要約: peephole最適化は、コンパイラ最適化の重要なクラスである。
従来の方法はスケールが良くないか、ペプホール最適化の限られたサブセットしかキャプチャできない。
我々は,LLMの創造的かつ信頼性の低いコード最適化能力と厳密な正確性検証を組み合わせた,新しいフレームワークであるLampoを提案する。
- 参考スコア(独自算出の注目度): 7.48961433936748
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: By replacing small, suboptimal instruction sequences within programs with a more efficient equivalent, peephole optimization can not only directly optimize code size and performance, but also potentially enables further transformations in the subsequent optimization pipeline. Although peephole optimization is a critical class of compiler optimizations, discovering new and effective peephole optimizations is challenging as the instruction sets can be extremely complex and diverse. Previous methods either do not scale well or can only capture a limited subset of peephole optimizations. In this work, we leverage Large Language Models (LLMs) to detect missed peephole optimizations. We propose Lampo, a novel automated framework that synergistically combines the creative but unreliable code optimization ability of LLMs with rigorous correctness verification performed by translation validation tools, integrated in a feedback-driven iterative process. Through a comprehensive evaluation within LLVM ecosystems, we show that Lampo can successfully detect up to 17 out of 25 previously reported missed optimizations in LLVM on average, and that 22 out of 25 can potentially be found by Lampo with different LLMs. For comparison, the state-of-the-art superoptimizer for LLVM, Souper, identified 15 of them. Moreover, within seven months of development and intermittent experiments, Lampo found 26 missed peephole optimizations, 15 of which have been confirmed and 6 already fixed. These results demonstrate Lampo's strong potential in continuously detecting missed peephole optimizations.
- Abstract(参考訳): プログラム内の小さな最適命令列をより効率的に置き換えることで、ピープホール最適化はコードサイズとパフォーマンスを直接最適化するだけでなく、その後の最適化パイプラインでさらなる変換を可能にする可能性がある。
ピープホール最適化はコンパイラ最適化の重要なクラスであるが、命令セットが非常に複雑で多様であるため、新しい効果的なピープホール最適化の発見は困難である。
従来の方法はスケールが良くないか、ペプホール最適化の限られたサブセットしかキャプチャできない。
本研究では,Large Language Models (LLMs) を用いて,欠落したピープホール最適化を検出する。
LLMの創造的かつ信頼性の低いコード最適化能力と、翻訳検証ツールによる厳密な正当性検証を相乗的に組み合わせ、フィードバック駆動反復プロセスに統合した新しい自動フレームワークであるLampoを提案する。
LLVMエコシステムの包括的な評価を通じて、Lampoは、以前報告された25の最適化のうち17の最適化を平均で検出することができ、25の最適化のうち22の最適化は、異なるLLMを持つLampoによって見つかる可能性があることを示す。
比較のために、LLVMの最先端のスーパー最適化ツールであるSouperは、その中の15つを特定した。
さらに、開発と断続的な実験から7ヶ月以内に26回のピープホール最適化が失敗し、そのうち15回が確認され、6回はすでに修正されている。
これらの結果から、Lampoが継続的に欠落したピープホール最適化を検出できる可能性が示された。
関連論文リスト
- Large Scale Multi-Task Bayesian Optimization with Large Language Models [29.12351845364205]
本稿では,大規模言語モデル(LLM)を活用して,従来の最適化軌道から学習し,改良する手法を提案する。
本手法は,データベースクエリ最適化と抗菌ペプチドの設計の2つの異なる領域で評価する。
論文 参考訳(メタデータ) (2025-03-11T07:46:19Z) - A Problem-Oriented Perspective and Anchor Verification for Code Optimization [43.28045750932116]
大規模言語モデル(LLM)は、様々なプログラミングタスクを解く際、顕著な能力を示している。
本稿では,LLMが最小実行時間に最適化する能力について検討する。
論文 参考訳(メタデータ) (2024-06-17T16:10:10Z) - Discovering Preference Optimization Algorithms with and for Large Language Models [50.843710797024805]
オフライン優先最適化は、LLM(Large Language Model)出力の品質を向上・制御するための重要な手法である。
我々は、人間の介入なしに、新しい最先端の選好最適化アルゴリズムを自動で発見する客観的発見を行う。
実験は、ロジスティックと指数的損失を適応的にブレンドする新しいアルゴリズムであるDiscoPOPの最先端性能を示す。
論文 参考訳(メタデータ) (2024-06-12T16:58:41Z) - Large Language Models as Optimizers [106.52386531624532]
本稿では,大規模言語モデル (LLM) をプロンプトとして活用するためのシンプルで効果的な手法である Prompting (OPRO) を提案する。
各最適化ステップにおいて、LLMは、前述した値を含むプロンプトから新しい解を生成する。
OPROにより最適化された最良のプロンプトは、GSM8Kで最大8%、Big-Bench Hardタスクで最大50%向上することを示した。
論文 参考訳(メタデータ) (2023-09-07T00:07:15Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。