論文の概要: SysLLMatic: Large Language Models are Software System Optimizers
- arxiv url: http://arxiv.org/abs/2506.01249v1
- Date: Mon, 02 Jun 2025 01:57:21 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-06-04 21:47:34.007049
- Title: SysLLMatic: Large Language Models are Software System Optimizers
- Title(参考訳): SysLLMatic: 大規模言語モデルはソフトウェアシステムの最適化である
- Authors: Huiyun Peng, Arjun Gupte, Ryan Hasler, Nicholas John Eliopoulos, Chien-Chou Ho, Rishi Mantri, Leo Deng, Konstantin Läufer, George K. Thiruvathukal, James C. Davis,
- Abstract要約: 提案するシステムSysLLMaticは,大規模言語モデルとプロファイリング誘導フィードバックとシステム性能の洞察を統合したシステムである。
我々は、HumanEval_Bench(C++の競合プログラミング)、SciMark2(Javaの科学的カーネル)、DaCapoBench(Javaの大規模ソフトウェアシステム)の3つのベンチマークスイートで評価した。
- 参考スコア(独自算出の注目度): 2.4416377721219145
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Automatic software system optimization can improve software speed, reduce operating costs, and save energy. Traditional approaches to optimization rely on manual tuning and compiler heuristics, limiting their ability to generalize across diverse codebases and system contexts. Recent methods using Large Language Models (LLMs) offer automation to address these limitations, but often fail to scale to the complexity of real-world software systems and applications. We present SysLLMatic, a system that integrates LLMs with profiling-guided feedback and system performance insights to automatically optimize software code. We evaluate it on three benchmark suites: HumanEval_CPP (competitive programming in C++), SciMark2 (scientific kernels in Java), and DaCapoBench (large-scale software systems in Java). Results show that SysLLMatic can improve system performance, including latency, throughput, energy efficiency, memory usage, and CPU utilization. It consistently outperforms state-of-the-art LLM baselines on microbenchmarks. On large-scale application codes, it surpasses traditional compiler optimizations, achieving average relative improvements of 1.85x in latency and 2.24x in throughput. Our findings demonstrate that LLMs, guided by principled systems thinking and appropriate performance diagnostics, can serve as viable software system optimizers. We further identify limitations of our approach and the challenges involved in handling complex applications. This work provides a foundation for generating optimized code across various languages, benchmarks, and program sizes in a principled manner.
- Abstract(参考訳): 自動ソフトウェアシステムの最適化は、ソフトウェア速度を改善し、運用コストを削減し、エネルギーを節約することができる。
従来の最適化アプローチは手動チューニングとコンパイラヒューリスティックに依存しており、さまざまなコードベースやシステムコンテキストにまたがる一般化の能力を制限する。
最近のLLM(Large Language Models)を使った手法は、これらの制限に対処する自動化を提供するが、現実のソフトウェアシステムやアプリケーションの複雑さにスケールできないことが多い。
提案するシステムSysLLMaticは,LLMとプロファイリング誘導フィードバックとシステムパフォーマンスインサイトを統合し,ソフトウェアコードを自動的に最適化するシステムである。
我々は、HumanEval_CPP(C++の競合プログラミング)、SciMark2(Javaの科学的カーネル)、DaCapoBench(Javaの大規模ソフトウェアシステム)の3つのベンチマークスイートで評価した。
その結果,SysLLMaticはレイテンシ,スループット,エネルギ効率,メモリ使用量,CPU使用量など,システムパフォーマンスを向上できることがわかった。
マイクロベンチマークでは、最先端のLCMベースラインを一貫して上回る。
大規模なアプリケーションコードでは、従来のコンパイラの最適化を超え、レイテンシが1.85倍、スループットが2.24倍の平均的な相対的な改善を実現している。
この結果から, LLMはシステム思考と適切な性能診断によって導かれ, 実行可能なソフトウェアシステムオプティマイザとして機能することが示唆された。
当社のアプローチの限界と、複雑なアプリケーションを扱う上での課題をさらに特定します。
この作業は、さまざまな言語、ベンチマーク、プログラムサイズを原則として、最適化されたコードを生成する基盤を提供する。
関連論文リスト
- Training of Scaffolded Language Models with Language Supervision: A Survey [62.59629932720519]
本調査は,戦後のLM周辺における新規構造物の設計と最適化に関する文献を整理した。
本稿では,この階層構造を足場型LMと呼び,ツールを用いた多段階プロセスに統合されたLMに焦点を当てる。
論文 参考訳(メタデータ) (2024-10-21T18:06:25Z) - Improving Parallel Program Performance with LLM Optimizers via Agent-System Interfaces [9.880183350366792]
並列プログラムのパフォーマンスを改善する上で重要な課題は、タスクをプロセッサやデータに効率的にメモリにマッピングすることだ。
生成最適化によるマッパー開発を自動化するフレームワークを提案する。
提案手法では,9つのベンチマークで1.34倍の高速化を実現している。
論文 参考訳(メタデータ) (2024-10-21T04:08:37Z) - Should AI Optimize Your Code? A Comparative Study of Classical Optimizing Compilers Versus Current Large Language Models [0.0]
大規模言語モデル(LLM)は、コード最適化に革命をもたらすAIアプローチの可能性に関する興味深い疑問を提起する。
この作業は、コンパイラコミュニティにとって重要な質問に答えることを目的としている。
本稿では3つの古典最適化コンパイラと2つの最近の大規模言語モデルの比較分析を行う。
論文 参考訳(メタデータ) (2024-06-17T23:26:41Z) - A Problem-Oriented Perspective and Anchor Verification for Code Optimization [43.28045750932116]
大規模言語モデル(LLM)は、様々なプログラミングタスクを解く際、顕著な能力を示している。
本稿では,LLMが最小実行時間に最適化する能力について検討する。
論文 参考訳(メタデータ) (2024-06-17T16:10:10Z) - CompilerDream: Learning a Compiler World Model for General Code Optimization [58.87557583347996]
汎用コード最適化のためのモデルベース強化学習手法であるCompilerDreamを紹介する。
最適化パスの固有の特性を正確にシミュレートするコンパイラの世界モデルと、このモデルで訓練されたエージェントから、効率的な最適化戦略を生成する。
さまざまなデータセットを網羅し、LLVMのビルトイン最適化や、値予測とエンドツーエンドコード最適化の両方の設定における最先端メソッドを超越している。
論文 参考訳(メタデータ) (2024-04-24T09:20:33Z) - Dissecting the Runtime Performance of the Training, Fine-tuning, and
Inference of Large Language Models [26.2566707495948]
大規模言語モデル(LLM)は、学術と産業の両方で大きく進歩している。
我々は,事前学習,微調整,LLMを異なるサイズで提供する場合のエンドツーエンド性能をベンチマークする。
次に,LLMにおける計算処理や通信演算子など,サブモジュールの詳細なランタイム解析を行う。
論文 参考訳(メタデータ) (2023-11-07T03:25:56Z) - Learning Performance-Improving Code Edits [107.21538852090208]
本稿では,大規模言語モデル(LLM)を高レベルプログラム最適化に適用するためのフレームワークを提案する。
まず、競争力のある77,000以上のC++プログラミングサブミッションペアによる、人間のプログラマによるパフォーマンス改善編集のデータセットをキュレートする。
提案手法は,検索をベースとした少数ショットプロンプトとチェーン・オブ・シンクレットを提案し,その微調整には,自己再生に基づく性能条件付き生成と合成データ拡張が含まれる。
論文 参考訳(メタデータ) (2023-02-15T18:59:21Z) - Learning to Superoptimize Real-world Programs [79.4140991035247]
本稿では,ニューラルシークエンス・ツー・シーケンス・モデルを用いて,実世界のプログラムを最適化するフレームワークを提案する。
我々は、x86-64アセンブリでオープンソースプロジェクトから抽出された25万以上の実世界の関数からなるデータセットであるBig Assemblyベンチマークを紹介した。
論文 参考訳(メタデータ) (2021-09-28T05:33:21Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。