論文の概要: Leveraging Large Language Models to Detect Missed Peephole Optimizations
- arxiv url: http://arxiv.org/abs/2508.16125v1
- Date: Fri, 22 Aug 2025 06:36:42 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-08-25 16:42:36.269997
- Title: Leveraging Large Language Models to Detect Missed Peephole Optimizations
- Title(参考訳): 失敗するピープホール最適化を検出するために大規模言語モデルを活用する
- Authors: Zhenyang Xu, Hongxu Xu, Yongqiang Tian, Xintong Zhou, Chengnian Sun,
- Abstract要約: peephole最適化は、コンパイラ最適化の重要なクラスである。
従来の方法はスケールが良くないか、ペプホール最適化の限られたサブセットしかキャプチャできない。
我々は,LLMの創造的かつ信頼性の低いコード最適化能力と厳密な正確性検証を組み合わせた,新しいフレームワークであるLampoを提案する。
- 参考スコア(独自算出の注目度): 7.48961433936748
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: By replacing small, suboptimal instruction sequences within programs with a more efficient equivalent, peephole optimization can not only directly optimize code size and performance, but also potentially enables further transformations in the subsequent optimization pipeline. Although peephole optimization is a critical class of compiler optimizations, discovering new and effective peephole optimizations is challenging as the instruction sets can be extremely complex and diverse. Previous methods either do not scale well or can only capture a limited subset of peephole optimizations. In this work, we leverage Large Language Models (LLMs) to detect missed peephole optimizations. We propose Lampo, a novel automated framework that synergistically combines the creative but unreliable code optimization ability of LLMs with rigorous correctness verification performed by translation validation tools, integrated in a feedback-driven iterative process. Through a comprehensive evaluation within LLVM ecosystems, we show that Lampo can successfully detect up to 17 out of 25 previously reported missed optimizations in LLVM on average, and that 22 out of 25 can potentially be found by Lampo with different LLMs. For comparison, the state-of-the-art superoptimizer for LLVM, Souper, identified 15 of them. Moreover, within seven months of development and intermittent experiments, Lampo found 26 missed peephole optimizations, 15 of which have been confirmed and 6 already fixed. These results demonstrate Lampo's strong potential in continuously detecting missed peephole optimizations.
- Abstract(参考訳): プログラム内の小さな最適命令列をより効率的に置き換えることで、ピープホール最適化はコードサイズとパフォーマンスを直接最適化するだけでなく、その後の最適化パイプラインでさらなる変換を可能にする可能性がある。
ピープホール最適化はコンパイラ最適化の重要なクラスであるが、命令セットが非常に複雑で多様であるため、新しい効果的なピープホール最適化の発見は困難である。
従来の方法はスケールが良くないか、ペプホール最適化の限られたサブセットしかキャプチャできない。
本研究では,Large Language Models (LLMs) を用いて,欠落したピープホール最適化を検出する。
LLMの創造的かつ信頼性の低いコード最適化能力と、翻訳検証ツールによる厳密な正当性検証を相乗的に組み合わせ、フィードバック駆動反復プロセスに統合した新しい自動フレームワークであるLampoを提案する。
LLVMエコシステムの包括的な評価を通じて、Lampoは、以前報告された25の最適化のうち17の最適化を平均で検出することができ、25の最適化のうち22の最適化は、異なるLLMを持つLampoによって見つかる可能性があることを示す。
比較のために、LLVMの最先端のスーパー最適化ツールであるSouperは、その中の15つを特定した。
さらに、開発と断続的な実験から7ヶ月以内に26回のピープホール最適化が失敗し、そのうち15回が確認され、6回はすでに修正されている。
これらの結果から、Lampoが継続的に欠落したピープホール最適化を検出できる可能性が示された。
関連論文リスト
- LOOPRAG: Enhancing Loop Transformation Optimization with Retrieval-Augmented Large Language Models [23.6344001089164]
LOOPRAGは,Large Language Models (LLM) の効率的なループ最適化を行うための検索拡張生成フレームワークである。
ループ特性を利用するパラメータ駆動方式を導入し、様々なループ変換をトリガーし、多様だが合法的なサンプルコードを生成する。
正確かつ効率的なコード生成を実現するために,コンパイル,テスト,パフォーマンス結果を組み込んだフィードバックベースの反復機構を導入する。
論文 参考訳(メタデータ) (2025-12-12T11:09:48Z) - Targeted Testing of Compiler Optimizations via Grammar-Level Composition Styles [8.598686284546773]
既存のファズナーは、コンパイラの最適化を効果的にテストするのに苦労している。
パイプラインベーステストの補完として,個別最適化のファジィ化を提案する。
LLVM と MLIR による評価の結果,TargetFuzz のカバレッジは8% と 11% 向上した。
論文 参考訳(メタデータ) (2025-12-04T00:13:25Z) - SemOpt: LLM-Driven Code Optimization via Rule-Based Analysis [7.451702651736553]
SemOptは静的プログラム分析を利用して最適化可能なコードセグメントを正確に識別し、対応する最適化戦略を検索し、最適化結果を生成するフレームワークである。
151の最適化タスクを含むベンチマークにおいて、SemOptは、ベースラインに比べて1.38から28倍の最適化を成功させることにより、異なるLLM下での有効性を示す。
論文 参考訳(メタデータ) (2025-10-18T07:44:18Z) - Make Optimization Once and for All with Fine-grained Guidance [78.14885351827232]
Learning to Optimize (L2O)は、統合ニューラルネットワークによる最適化効率を向上させる。
L2Oパラダイムは、例えば、リフィット、目に見えない解決策を反復的または直接的に生成するなど、大きな成果を達成する。
そこで本研究では,Diff-L2Oと呼ばれる学習最適化のための一般的なフレームワークについて検討した。
論文 参考訳(メタデータ) (2025-03-14T14:48:12Z) - Large Scale Multi-Task Bayesian Optimization with Large Language Models [29.12351845364205]
本稿では,大規模言語モデル(LLM)を活用して,従来の最適化軌道から学習し,改良する手法を提案する。
本手法は,データベースクエリ最適化と抗菌ペプチドの設計の2つの異なる領域で評価する。
論文 参考訳(メタデータ) (2025-03-11T07:46:19Z) - A Problem-Oriented Perspective and Anchor Verification for Code Optimization [43.28045750932116]
大規模言語モデル(LLM)は、様々なプログラミングタスクを解く際、顕著な能力を示している。
本稿では,LLMが最小実行時間に最適化する能力について検討する。
論文 参考訳(メタデータ) (2024-06-17T16:10:10Z) - Discovering Preference Optimization Algorithms with and for Large Language Models [50.843710797024805]
オフライン優先最適化は、LLM(Large Language Model)出力の品質を向上・制御するための重要な手法である。
我々は、人間の介入なしに、新しい最先端の選好最適化アルゴリズムを自動で発見する客観的発見を行う。
実験は、ロジスティックと指数的損失を適応的にブレンドする新しいアルゴリズムであるDiscoPOPの最先端性能を示す。
論文 参考訳(メタデータ) (2024-06-12T16:58:41Z) - LLM as a Complementary Optimizer to Gradient Descent: A Case Study in Prompt Tuning [69.95292905263393]
グラデーションベースとハイレベルなLLMは、協調最適化フレームワークを効果的に組み合わせることができることを示す。
本稿では,これらを相互に補完し,組み合わせた最適化フレームワークを効果的に連携させることができることを示す。
論文 参考訳(メタデータ) (2024-05-30T06:24:14Z) - Large Language Models as Optimizers [106.52386531624532]
本稿では,大規模言語モデル (LLM) をプロンプトとして活用するためのシンプルで効果的な手法である Prompting (OPRO) を提案する。
各最適化ステップにおいて、LLMは、前述した値を含むプロンプトから新しい解を生成する。
OPROにより最適化された最良のプロンプトは、GSM8Kで最大8%、Big-Bench Hardタスクで最大50%向上することを示した。
論文 参考訳(メタデータ) (2023-09-07T00:07:15Z) - M-L2O: Towards Generalizable Learning-to-Optimize by Test-Time Fast
Self-Adaptation [145.7321032755538]
L2O(Learning to Optimize)は、複雑なタスクの最適化手順を著しく加速させるため、注目を集めている。
本稿では, アウト・オブ・ディストリビューションタスクへの高速なテスト時間自己適応を実現するL2Oをメタトレーニングすることで, このオープンな課題に対する潜在的な解決策を検討する。
論文 参考訳(メタデータ) (2023-02-28T19:23:20Z) - An Empirical Evaluation of Zeroth-Order Optimization Methods on
AI-driven Molecule Optimization [78.36413169647408]
分子目的を最適化するための様々なZO最適化手法の有効性について検討する。
ZO符号に基づく勾配降下(ZO-signGD)の利点を示す。
本稿では,Guurcamol スイートから広く使用されているベンチマークタスクに対して,ZO 最適化手法の有効性を示す。
論文 参考訳(メタデータ) (2022-10-27T01:58:10Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。