論文の概要: Leveraging LLMs to Automate Energy-Aware Refactoring of Parallel Scientific Codes
- arxiv url: http://arxiv.org/abs/2505.02184v1
- Date: Sun, 04 May 2025 17:05:34 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-05-06 18:49:35.475237
- Title: Leveraging LLMs to Automate Energy-Aware Refactoring of Parallel Scientific Codes
- Title(参考訳): 並列科学コードのエネルギーを考慮したリファクタリング自動化のためのLCMの活用
- Authors: Matthew T. Dearing, Yiheng Tao, Xingfu Wu, Zhiling Lan, Valerie Taylor,
- Abstract要約: 大規模言語モデル (LLM) は、並列的な科学的コードを生成するためにますます使われている。
本研究では,エネルギー効率のよい並列コードを生成するLLMベースの自動フレームワークLASSI-EEを提案する。
LASSI-EEは、複数段階の反復パイプラインプロセスを通じて、20HeCBenchベンチマークの85%に対して平均47%のエネルギー削減を達成した。
- 参考スコア(独自算出の注目度): 0.23301643766310373
- License: http://creativecommons.org/licenses/by-sa/4.0/
- Abstract: While large language models (LLMs) are increasingly used for generating parallel scientific code, most current efforts emphasize functional correctness, often overlooking performance and energy considerations. In this work, we propose LASSI-EE, an automated LLM-based refactoring framework that generates energy-efficient parallel code on a target parallel system for a given parallel code as input. Through a multi-stage, iterative pipeline process, LASSI-EE achieved an average energy reduction of 47% across 85% of the 20 HeCBench benchmarks tested on NVIDIA A100 GPUs. Our findings demonstrate the broader potential of LLMs, not only for generating correct code but also for enabling energy-aware programming. We also address key insights and limitations within the framework, offering valuable guidance for future improvements.
- Abstract(参考訳): 大規模言語モデル(LLM)は、並列的な科学コードを生成するためにますます使われているが、現在のほとんどの取り組みは機能的正当性を強調しており、しばしば性能やエネルギーの考慮事項を見越している。
本研究では,LLMをベースとした自動リファクタリングフレームワークLASSI-EEを提案する。
多段階の反復パイプラインプロセスを通じて、LASSI-EEはNVIDIA A100 GPUでテストされた20 HeCBenchベンチマークの85%に対して平均47%のエネルギー削減を達成した。
本研究は,LLMが正しいコードを生成するだけでなく,エネルギーを意識したプログラミングを可能にする可能性を示すものである。
フレームワーク内の重要な洞察と制限にも対処し、将来の改善のための貴重なガイダンスを提供しています。
関連論文リスト
- ResBench: Benchmarking LLM-Generated FPGA Designs with Resource Awareness [7.3895963946365795]
大規模言語モデル(LLM)は、HDL生成のための有望なツールとして登場した。
LLMベースのコード生成のための既存のベンチマークは、ハードウェアリソースの使用状況を見越しながら、機能的正確性に重点を置いている。
我々は、資源最適化と非効率なLLM生成HDLコードの区別のために設計された最初のリソース中心のベンチマークであるResBenchを紹介する。
論文 参考訳(メタデータ) (2025-03-11T18:54:17Z) - GREEN-CODE: Learning to Optimize Energy Efficiency in LLM-based Code Generation [1.5749416770494706]
本研究では,Large Language Models (LLM) におけるエネルギーを考慮したコード生成フレームワークを提案する。
我々は、正確性、レイテンシ、エネルギー消費のトレードオフのバランスをとることを学ぶ強化学習エージェント(RL)を訓練する。
その結果,コード生成作業における平均23~50パーセントのエネルギー消費を,精度に悪影響を及ぼすことなく削減できることが示唆された。
論文 参考訳(メタデータ) (2025-01-19T10:44:03Z) - PerfCodeGen: Improving Performance of LLM Generated Code with Execution Feedback [78.89596149768458]
大規模言語モデル(LLM)は、ソフトウェア開発タスクを支援するために広く採用されている。
LLM生成コードの性能を向上させるトレーニングフリーフレームワークPerfCodeGenを提案する。
論文 参考訳(メタデータ) (2024-11-18T06:22:38Z) - DOMAINEVAL: An Auto-Constructed Benchmark for Multi-Domain Code Generation [48.11754113512047]
この研究には、コード生成ベンチマークデータセットであるDOMAINEVALが含まれており、6つの人気のあるドメインを含んでいる。
私たちのパイプラインは完全に自動化され、コードリポジトリから研究対象のフォーマットへのプッシュボットの構築が可能になります。
本研究のコントリビューションには、コード生成ベンチマークデータセットであるDOMAINEVAL、コードベンチマークを構築するための完全自動化パイプライン、DOMAINEVALのパフォーマンスに基づいたコード生成タスクにおけるLLMの制限の識別が含まれている。
論文 参考訳(メタデータ) (2024-08-23T16:33:58Z) - InfiBench: Evaluating the Question-Answering Capabilities of Code Large Language Models [56.723509505549536]
InfiBenchは、私たちの知識に合ったコードのための、最初の大規模フリーフォーム質問回答(QA)ベンチマークです。
慎重に選択された234の高品質なStack Overflow質問で構成されており、15のプログラミング言語にまたがっている。
InfiBench上で100以上の最新のコードLLMに対して,系統的評価を行い,新しい知見と洞察に富んだ結果を得た。
論文 参考訳(メタデータ) (2024-03-11T02:06:30Z) - Mercury: A Code Efficiency Benchmark for Code Large Language Models [41.51235610016959]
我々は、Large Language Models for Code (Code LLMs)の最初のコード効率ベンチマークであるMercuryを提示する。
1,889のPythonタスクで構成され、それぞれに現実の効率のベースラインとして機能する適切なソリューションが伴っている。
そこで我々は,機能的正当性とコード効率を同時に反映する,実行時毎のパススコアを計算する新たな指標Beyondを導入する。
論文 参考訳(メタデータ) (2024-02-12T17:53:22Z) - ML-Bench: Evaluating Large Language Models and Agents for Machine Learning Tasks on Repository-Level Code [76.84199699772903]
ML-Benchは、既存のコードリポジトリを利用してタスクを実行する現実世界のプログラミングアプリケーションに根ざしたベンチマークである。
LLM(Large Language Model)とAIエージェントの両方を評価するために、事前に定義されたデプロイメント環境でLLMのテキスト-コード変換を評価するML-LLM-Benchと、Linuxサンドボックス環境でエンドツーエンドのタスク実行で自律エージェントをテストするML-Agent-Benchの2つの設定が採用されている。
論文 参考訳(メタデータ) (2023-11-16T12:03:21Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。