論文の概要: Leveraging LLMs to Automate Energy-Aware Refactoring of Parallel Scientific Codes
- arxiv url: http://arxiv.org/abs/2505.02184v2
- Date: Wed, 05 Nov 2025 03:55:53 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-11-06 18:19:32.08535
- Title: Leveraging LLMs to Automate Energy-Aware Refactoring of Parallel Scientific Codes
- Title(参考訳): 並列科学コードのエネルギーを考慮したリファクタリング自動化のためのLCMの活用
- Authors: Matthew T. Dearing, Yiheng Tao, Xingfu Wu, Zhiling Lan, Valerie Taylor,
- Abstract要約: 大規模言語モデル (LLM) は、並列的な科学的コードを生成するためにますます使われている。
エネルギー効率のよい並列コードを生成する自動スクリーニングフレームワークLASSI-EEを提案する。
我々は、k個の符号候補を生成する際に、期待されるエネルギー削減を定量化する新しい計量であるEnergy-reduction@kを紹介する。
- 参考スコア(独自算出の注目度): 1.2178992475191555
- License: http://creativecommons.org/licenses/by-sa/4.0/
- Abstract: While large language models (LLMs) are increasingly used for generating parallel scientific codes, most efforts emphasize functional correctness, often overlooking performance, especially energy efficiency. We propose LASSI-EE, an automated LLM-based refactoring framework that generates energy-efficient parallel codes through a multi-stage, iterative approach integrating runtime power profiling, energy-aware prompting, self-correcting feedback loops, and an LLM-as-a-Judge agent for automated screening of code solutions. We introduce energy-reduction@k, a novel metric that quantifies expected energy reduction when generating k code candidates and selecting the most energy-efficient, enabling systematic evaluation of multi-attempt generation strategies. Evaluating 20 HeCBench applications and two miniApps on NVIDIA A100 and AMD MI100 GPUs, a single run (k=1) with LASSI-EE delivers refactored parallel codes with an average 29% expected energy reduction at an 81% pass rate, representing a 2.8x improvement over vanilla LLM prompting. Multiple runs (k=3) achieve an average 48% expected energy reduction at a 97% pass rate. These results are consistent across devices, demonstrating LASSI-EE's effectiveness across diverse hardware architectures.
- Abstract(参考訳): 大規模言語モデル (LLM) は並列的な科学的コードを生成するためにますます使われているが、ほとんどの試みは機能的正確性を強調しており、性能、特にエネルギー効率を目視している。
本稿では,LLM ベースの自動リファクタリングフレームワーク LASSI-EE を提案する。このフレームワークは,実行時電力プロファイリング,エネルギ認識プロンプト,自己修正フィードバックループ,およびコードソリューションの自動スクリーニングのための LLM-as-a-Judge エージェントを統合した,多段階の並列コードを生成する。
我々は、k個のコード候補を生成し、最もエネルギー効率の良い候補を選択する際に、期待されるエネルギー削減を定量化する新しい計量であるEnergy-reduction@kを導入し、多目的生成戦略の体系的評価を可能にした。
NVIDIA A100とAMD MI100 GPU上の20のHeCBenchアプリケーションと2つのミニアプリを評価し、LASSI-EEを使用した単一実行(k=1)では、平均29%のエネルギー削減を81%のパスレートで達成し、バニラLLMよりも2.8倍改善した。
複数のラン(k=3)は平均48%のエネルギー還元を97%のパスレートで達成する。
これらの結果はデバイス間で一貫しており、LASSI-EEの様々なハードウェアアーキテクチャにおける有効性を示している。
関連論文リスト
- TuRTLe: A Unified Evaluation of LLMs for RTL Generation [0.6010802600885173]
本研究では,主要なRTL生成タスク間でLLMを評価するための統合評価フレームワークTuRTLeを提案する。
オープンLLMの多様なセットをベンチマークし、EDA固有のタスクの長所と短所を分析します。
以上の結果から,DeepSeek R1のような推論モデルの方が,複数の評価基準で常に優れていたことが示唆された。
論文 参考訳(メタデータ) (2025-03-31T07:43:12Z) - Can We Make Code Green? Understanding Trade-Offs in LLMs vs. Human Code Optimizations [45.243401722182554]
大規模言語モデル(LLM)は、パフォーマンスとエネルギー効率の最適化を開発者が支援すると主張している。
この研究は、科学と工学の応用のために学術と産業の両方で広く使われているマットラブで書かれたソフトウェアに焦点を当てている。
トップ100のGitHubリポジトリで400スクリプトのエネルギ中心の最適化を分析します。
論文 参考訳(メタデータ) (2025-03-26T00:27:29Z) - ResBench: Benchmarking LLM-Generated FPGA Designs with Resource Awareness [7.3895963946365795]
大規模言語モデル(LLM)は、HDL生成のための有望なツールとして登場した。
LLMベースのコード生成のための既存のベンチマークは、ハードウェアリソースの使用状況を見越しながら、機能的正確性に重点を置いている。
我々は、資源最適化と非効率なLLM生成HDLコードの区別のために設計された最初のリソース中心のベンチマークであるResBenchを紹介する。
論文 参考訳(メタデータ) (2025-03-11T18:54:17Z) - GREEN-CODE: Learning to Optimize Energy Efficiency in LLM-based Code Generation [1.5749416770494706]
本研究では,Large Language Models (LLM) におけるエネルギーを考慮したコード生成フレームワークを提案する。
我々は、正確性、レイテンシ、エネルギー消費のトレードオフのバランスをとることを学ぶ強化学習エージェント(RL)を訓練する。
その結果,コード生成作業における平均23~50パーセントのエネルギー消費を,精度に悪影響を及ぼすことなく削減できることが示唆された。
論文 参考訳(メタデータ) (2025-01-19T10:44:03Z) - PerfCodeGen: Improving Performance of LLM Generated Code with Execution Feedback [78.89596149768458]
大規模言語モデル(LLM)は、ソフトウェア開発タスクを支援するために広く採用されている。
LLM生成コードの性能を向上させるトレーニングフリーフレームワークPerfCodeGenを提案する。
論文 参考訳(メタデータ) (2024-11-18T06:22:38Z) - DOMAINEVAL: An Auto-Constructed Benchmark for Multi-Domain Code Generation [48.11754113512047]
この研究には、コード生成ベンチマークデータセットであるDOMAINEVALが含まれており、6つの人気のあるドメインを含んでいる。
私たちのパイプラインは完全に自動化され、コードリポジトリから研究対象のフォーマットへのプッシュボットの構築が可能になります。
本研究のコントリビューションには、コード生成ベンチマークデータセットであるDOMAINEVAL、コードベンチマークを構築するための完全自動化パイプライン、DOMAINEVALのパフォーマンスに基づいたコード生成タスクにおけるLLMの制限の識別が含まれている。
論文 参考訳(メタデータ) (2024-08-23T16:33:58Z) - InfiBench: Evaluating the Question-Answering Capabilities of Code Large Language Models [56.723509505549536]
InfiBenchは、私たちの知識に合ったコードのための、最初の大規模フリーフォーム質問回答(QA)ベンチマークです。
慎重に選択された234の高品質なStack Overflow質問で構成されており、15のプログラミング言語にまたがっている。
InfiBench上で100以上の最新のコードLLMに対して,系統的評価を行い,新しい知見と洞察に富んだ結果を得た。
論文 参考訳(メタデータ) (2024-03-11T02:06:30Z) - Mercury: A Code Efficiency Benchmark for Code Large Language Models [41.51235610016959]
我々は、Large Language Models for Code (Code LLMs)の最初のコード効率ベンチマークであるMercuryを提示する。
1,889のPythonタスクで構成され、それぞれに現実の効率のベースラインとして機能する適切なソリューションが伴っている。
そこで我々は,機能的正当性とコード効率を同時に反映する,実行時毎のパススコアを計算する新たな指標Beyondを導入する。
論文 参考訳(メタデータ) (2024-02-12T17:53:22Z) - StepCoder: Improve Code Generation with Reinforcement Learning from
Compiler Feedback [58.20547418182074]
2つの主要コンポーネントからなるコード生成の新しいフレームワークであるStepCoderを紹介します。
CCCSは、長いシーケンスのコード生成タスクをCurriculum of Code Completion Subtaskに分割することで、探索課題に対処する。
FGOは、未実行のコードセグメントをマスクすることでのみモデルを最適化し、Fine-Grained Optimizationを提供する。
提案手法は,出力空間を探索し,対応するベンチマークにおいて最先端の手法より優れた性能を発揮する。
論文 参考訳(メタデータ) (2024-02-02T13:14:31Z) - Distributed Inference and Fine-tuning of Large Language Models Over The
Internet [91.00270820533272]
大規模言語モデル(LLM)は、多くのNLPタスクで有用であり、サイズが向上する。
これらのモデルはハイエンドのハードウェアを必要とするため、ほとんどの研究者にはアクセスできない。
本研究では,システムスループットの最大化のためにデバイスを自動的に割り当てるフォールトトレラント推論アルゴリズムとロードバランシングプロトコルを開発する。
論文 参考訳(メタデータ) (2023-12-13T18:52:49Z) - ML-Bench: Evaluating Large Language Models and Agents for Machine Learning Tasks on Repository-Level Code [76.84199699772903]
ML-Benchは、既存のコードリポジトリを利用してタスクを実行する現実世界のプログラミングアプリケーションに根ざしたベンチマークである。
LLM(Large Language Model)とAIエージェントの両方を評価するために、事前に定義されたデプロイメント環境でLLMのテキスト-コード変換を評価するML-LLM-Benchと、Linuxサンドボックス環境でエンドツーエンドのタスク実行で自律エージェントをテストするML-Agent-Benchの2つの設定が採用されている。
論文 参考訳(メタデータ) (2023-11-16T12:03:21Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。