論文の概要: Comparative Analysis of Carbon Footprint in Manual vs. LLM-Assisted Code Development
- arxiv url: http://arxiv.org/abs/2505.04521v1
- Date: Wed, 07 May 2025 15:52:06 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-05-08 19:07:36.136466
- Title: Comparative Analysis of Carbon Footprint in Manual vs. LLM-Assisted Code Development
- Title(参考訳): 手動とLLMによるコード開発におけるカーボンフットプリントの比較分析
- Authors: Kuen Sum Cheung, Mayuri Kaul, Gunel Jahangirova, Mohammad Reza Mousavi, Eric Zie,
- Abstract要約: 本研究の目的は,手動ソフトウェア開発におけるエネルギー消費とLCM支援手法の比較である。
以上の結果から,LSMによるコード生成は,手動よりも平均32.72炭素フットプリントが高いことがわかった。
- 参考スコア(独自算出の注目度): 3.262230127283452
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Large Language Models (LLM) have significantly transformed various domains, including software development. These models assist programmers in generating code, potentially increasing productivity and efficiency. However, the environmental impact of utilising these AI models is substantial, given their high energy consumption during both training and inference stages. This research aims to compare the energy consumption of manual software development versus an LLM-assisted approach, using Codeforces as a simulation platform for software development. The goal is to quantify the environmental impact and propose strategies for minimising the carbon footprint of using LLM in software development. Our results show that the LLM-assisted code generation leads on average to 32.72 higher carbon footprint than the manual one. Moreover, there is a significant correlation between task complexity and the difference in the carbon footprint of the two approaches.
- Abstract(参考訳): 大規模言語モデル(LLM)は、ソフトウェア開発を含む様々な領域を大きく変えてきた。
これらのモデルはプログラマがコードを生成するのに役立ち、生産性と効率が向上する可能性がある。
しかし、これらのAIモデルを利用することによる環境への影響は、トレーニングと推論の段階での高エネルギー消費を考えると、かなり大きい。
本研究の目的は,ソフトウェア開発のシミュレーションプラットフォームとしてCodeforcesを用いて,手動ソフトウェア開発のエネルギー消費とLCM支援アプローチを比較することである。
目標は、環境影響の定量化と、LCMを用いたソフトウェア開発における炭素フットプリントの最小化戦略を提案することである。
以上の結果から,LSMによるコード生成は,手動よりも平均32.72炭素フットプリントが高いことがわかった。
さらに, 課題複雑性と2つのアプローチの炭素フットプリントの違いとの間には, 有意な相関関係がある。
関連論文リスト
- Carbon Footprint Evaluation of Code Generation through LLM as a Service [5.782162597806532]
グリーンコーディングとAIモデルはエネルギー効率を向上させることができると主張している。
本稿では,AIモデルの持続可能性意識を測定するためのグリーンコーディングとメトリクスの概要を紹介する。
論文 参考訳(メタデータ) (2025-03-30T15:27:04Z) - Can We Make Code Green? Understanding Trade-Offs in LLMs vs. Human Code Optimizations [45.243401722182554]
大規模言語モデル(LLM)は、パフォーマンスとエネルギー効率の最適化を開発者が支援すると主張している。
この研究は、科学と工学の応用のために学術と産業の両方で広く使われているマットラブで書かれたソフトウェアに焦点を当てている。
トップ100のGitHubリポジトリで400スクリプトのエネルギ中心の最適化を分析します。
論文 参考訳(メタデータ) (2025-03-26T00:27:29Z) - AI-Powered, But Power-Hungry? Energy Efficiency of LLM-Generated Code [45.77395425799378]
本稿では,Python,Java,C++の3つのプログラミング言語に対して,LLM生成コードのエネルギー効率と性能を初めて解析する。
結果から,C++ コードよりも Python と Java の生成に成功していることがわかった。
論文 参考訳(メタデータ) (2025-02-04T15:32:34Z) - Prompt engineering and its implications on the energy consumption of Large Language Models [4.791072577881446]
ソフトウェア工学における大規模言語モデル(LLM)は、計算資源、データセンター、二酸化炭素排出に関する深刻な問題を引き起こす。
本稿では,コード生成タスクにおけるLlama 3モデルの炭素排出に及ぼすPETの影響について検討する。
論文 参考訳(メタデータ) (2025-01-10T11:49:31Z) - Green My LLM: Studying the key factors affecting the energy consumption of code assistants [1.747820331822631]
本稿では,GitHub Copilotのような大規模言語モデルに基づくコードアシスタントのエネルギー消費について検討する。
その結果,コードアシスタントのエネルギー消費と性能は,コンカレント開発者の数など,様々な要因に影響されていることがわかった。
論文 参考訳(メタデータ) (2024-11-07T16:00:29Z) - SOEN-101: Code Generation by Emulating Software Process Models Using Large Language Model Agents [50.82665351100067]
FlowGenは、複数のLarge Language Model (LLM)エージェントに基づいたソフトウェアプロセスモデルをエミュレートするコード生成フレームワークである。
FlowGenScrumをHumanEval、HumanEval-ET、MBPP、MBPP-ETの4つのベンチマークで評価した。
論文 参考訳(メタデータ) (2024-03-23T14:04:48Z) - LLM-Assisted Code Cleaning For Training Accurate Code Generators [53.087019724256606]
コードの品質を調査した結果,より構造化され,読みやすくなれば,コード生成性能が向上することがわかった。
私たちは、これらの原則を使って既存のプログラムを変換する、新しいデータクリーニングパイプラインを構築します。
提案手法を2つのアルゴリズムコード生成ベンチマークで評価した結果,微調整のCodeLLaMa-7Bでは,元のデータセットの微調整に比べて最大30%性能が向上していることがわかった。
論文 参考訳(メタデータ) (2023-11-25T02:45:50Z) - A Comparative Study of Machine Learning Algorithms for Anomaly Detection
in Industrial Environments: Performance and Environmental Impact [62.997667081978825]
本研究は,環境の持続可能性を考慮した高性能機械学習モデルの要求に応えることを目的としている。
Decision TreesやRandom Forestsといった従来の機械学習アルゴリズムは、堅牢な効率性とパフォーマンスを示している。
しかし, 資源消費の累積増加にもかかわらず, 最適化された構成で優れた結果が得られた。
論文 参考訳(メタデータ) (2023-07-01T15:18:00Z) - Measuring the Carbon Intensity of AI in Cloud Instances [91.28501520271972]
我々は,ソフトウェアの炭素強度を測定するための枠組みを提供し,運転中の炭素排出量を測定することを提案する。
私たちは、Microsoft Azureクラウドコンピューティングプラットフォームにおける排出削減のための一連のアプローチを評価します。
論文 参考訳(メタデータ) (2022-06-10T17:04:04Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。