論文の概要: Generating Energy-Efficient Code via Large-Language Models -- Where are we now?
- arxiv url: http://arxiv.org/abs/2509.10099v1
- Date: Fri, 12 Sep 2025 09:49:46 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-09-15 16:03:08.03891
- Title: Generating Energy-Efficient Code via Large-Language Models -- Where are we now?
- Title(参考訳): 大規模言語モデルによるエネルギー効率の良いコード生成 -- 今どこにいるのか?
- Authors: Radu Apsan, Vincenzo Stoico, Michel Albonico, Rudra Dhar, Karthik Vaidhyanathan, Ivano Malavolta,
- Abstract要約: 大規模言語モデル(LLM)は、開発パイプラインで広く採用されている。
グリーンソフトウェアの専門家によって開発された人書きコードとコードに対して,LLMが生成するPythonコードのエネルギー効率を実証的に評価した。
- 参考スコア(独自算出の注目度): 2.561129176520328
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Context. The rise of Large Language Models (LLMs) has led to their widespread adoption in development pipelines. Goal. We empirically assess the energy efficiency of Python code generated by LLMs against human-written code and code developed by a Green software expert. Method. We test 363 solutions to 9 coding problems from the EvoEval benchmark using 6 widespread LLMs with 4 prompting techniques, and comparing them to human-developed solutions. Energy consumption is measured on three different hardware platforms: a server, a PC, and a Raspberry Pi for a total of ~881h (36.7 days). Results. Human solutions are 16% more energy-efficient on the server and 3% on the Raspberry Pi, while LLMs outperform human developers by 25% on the PC. Prompting does not consistently lead to energy savings, where the most energy-efficient prompts vary by hardware platform. The code developed by a Green software expert is consistently more energy-efficient by at least 17% to 30% against all LLMs on all hardware platforms. Conclusions. Even though LLMs exhibit relatively good code generation capabilities, no LLM-generated code was more energy-efficient than that of an experienced Green software developer, suggesting that as of today there is still a great need of human expertise for developing energy-efficient Python code.
- Abstract(参考訳): コンテキスト。
大規模言語モデル(LLM)の台頭は、開発パイプラインで広く採用されている。
ゴール。
グリーンソフトウェアの専門家によって開発された人書きコードとコードに対して,LLMが生成するPythonコードのエネルギー効率を実証的に評価した。
方法。
我々は,EvoEvalベンチマークの9つのコーディング問題に対する363の解を,6つの拡張LDMと4つのプロンプト技術を用いてテストし,それらを人間が開発した解と比較した。
電力消費はサーバ、PC、Raspberry Piの3つの異なるハードウェアプラットフォームで計881時間(36.7日)で測定される。
結果。
人間のソリューションはサーバー上で16%エネルギー効率が良く、Raspberry Piでは3%、LLMはPCでは25%を上回ります。
プロンプティングは、ハードウェアプラットフォームによって最もエネルギー効率のよいプロンプトが異なるため、一貫して省エネに繋がるわけではない。
グリーンソフトウェアの専門家によって開発されたコードは、すべてのハードウェアプラットフォーム上の全てのLCMに対して、少なくとも17%から30%のエネルギー効率が一貫して向上している。
結論。
LLMは比較的優れたコード生成能力を示していますが、経験豊富なGreenソフトウェア開発者よりもエネルギー効率が高かったLLM生成コードはありませんでした。
関連論文リスト
- Energy-Aware Code Generation with LLMs: Benchmarking Small vs. Large Language Models for Sustainable AI Programming [2.588812622437082]
我々は,大規模言語モデル (LLM) に対するコード生成を明示的に訓練したオープンソースのSmall Language Models (SLM) と,効率的な人書きPythonコードの評価を行った。
我々はLeetCodeから150のコーディング問題を評価し、難易度、中性度、難易度という3つの難易度に均等に分散した。
LLMは全ての難易度で最高精度を達成するが、SLMは出力が正しければエネルギー効率が良くなる。
論文 参考訳(メタデータ) (2025-08-10T14:44:06Z) - Can We Make Code Green? Understanding Trade-Offs in LLMs vs. Human Code Optimizations [45.243401722182554]
大規模言語モデル(LLM)は、パフォーマンスとエネルギー効率の最適化を開発者が支援すると主張している。
この研究は、科学と工学の応用のために学術と産業の両方で広く使われているマットラブで書かれたソフトウェアに焦点を当てている。
トップ100のGitHubリポジトリで400スクリプトのエネルギ中心の最適化を分析します。
論文 参考訳(メタデータ) (2025-03-26T00:27:29Z) - AI-Powered, But Power-Hungry? Energy Efficiency of LLM-Generated Code [45.77395425799378]
本稿では,Python,Java,C++の3つのプログラミング言語に対して,LLM生成コードのエネルギー効率と性能を初めて解析する。
結果から,C++ コードよりも Python と Java の生成に成功していることがわかった。
論文 参考訳(メタデータ) (2025-02-04T15:32:34Z) - GREEN-CODE: Learning to Optimize Energy Efficiency in LLM-based Code Generation [1.5749416770494706]
本研究では,Large Language Models (LLM) におけるエネルギーを考慮したコード生成フレームワークを提案する。
我々は、正確性、レイテンシ、エネルギー消費のトレードオフのバランスをとることを学ぶ強化学習エージェント(RL)を訓練する。
その結果,コード生成作業における平均23~50パーセントのエネルギー消費を,精度に悪影響を及ぼすことなく削減できることが示唆された。
論文 参考訳(メタデータ) (2025-01-19T10:44:03Z) - PerfCodeGen: Improving Performance of LLM Generated Code with Execution Feedback [78.89596149768458]
大規模言語モデル(LLM)は、ソフトウェア開発タスクを支援するために広く採用されている。
LLM生成コードの性能を向上させるトレーニングフリーフレームワークPerfCodeGenを提案する。
論文 参考訳(メタデータ) (2024-11-18T06:22:38Z) - Generating Energy-efficient code with LLMs [0.0]
生成したコードのエネルギー消費に対する即時修正の影響を考察する。
使用されている言語モデルは、CodeLlama-70b、CodeLlama-70b-Python、DeepSeek-Coder-33b-base、DeepSeek-Coder-33b-instructである。
論文 参考訳(メタデータ) (2024-11-15T21:45:58Z) - A Controlled Experiment on the Energy Efficiency of the Source Code Generated by Code Llama [4.937787069991124]
ソフトウェア開発者の83%がコード生成にLLM(Large Language Models)を使用している。
本稿では,人手によるソースコードに関して,コードラマのエネルギー効率を評価する。
論文 参考訳(メタデータ) (2024-05-06T16:32:29Z) - WizardCoder: Empowering Code Large Language Models with Evol-Instruct [106.77843374640752]
WezardCoderは、複雑な命令の微調整でコードLLMをパワーアップする。
私たちのモデルは、他のすべてのオープンソースコードLLMをかなり上回ります。
論文 参考訳(メタデータ) (2023-06-14T15:18:48Z) - Can Large Language Models Transform Computational Social Science? [79.62471267510963]
大規模言語モデル(LLM)は、(トレーニングデータなしで)ゼロショットで多くの言語処理タスクを実行することができる
この研究は、計算社会科学ツールとしてLLMを使用するためのロードマップを提供する。
論文 参考訳(メタデータ) (2023-04-12T17:33:28Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。