論文の概要: Toward Green Code: Prompting Small Language Models for Energy-Efficient Code Generation
- arxiv url: http://arxiv.org/abs/2509.09947v1
- Date: Fri, 12 Sep 2025 03:38:15 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-09-15 16:03:07.968824
- Title: Toward Green Code: Prompting Small Language Models for Energy-Efficient Code Generation
- Title(参考訳): グリーンコードに向けて:エネルギー効率の良いコード生成のための小さな言語モデルの提案
- Authors: Humza Ashraf, Syed Muhammad Danish, Zeeshan Sattar,
- Abstract要約: ソフトウェア開発における大規模言語モデル(LLM)の環境影響に対する懸念が高まっている。
本研究は, コード生成におけるSLMのエネルギー効率向上を図ることを目的とする。
我々は、LeetCodeから150のPython問題に対して、StableCode-Instruct-3B、Qwen2.5-Coder-3B-Instruct、CodeLlama-7B-Instruct、Phi-3-Mini-4K-Instructの4つのオープンソースSLMを評価した。
- 参考スコア(独自算出の注目度): 0.27528170226206433
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: There is a growing concern about the environmental impact of large language models (LLMs) in software development, particularly due to their high energy use and carbon footprint. Small Language Models (SLMs) offer a more sustainable alternative, requiring fewer computational resources while remaining effective for fundamental programming tasks. In this study, we investigate whether prompt engineering can improve the energy efficiency of SLMs in code generation. We evaluate four open-source SLMs, StableCode-Instruct-3B, Qwen2.5-Coder-3B-Instruct, CodeLlama-7B-Instruct, and Phi-3-Mini-4K-Instruct, across 150 Python problems from LeetCode, evenly distributed into easy, medium, and hard categories. Each model is tested under four prompting strategies: role prompting, zero-shot, few-shot, and chain-of-thought (CoT). For every generated solution, we measure runtime, memory usage, and energy consumption, comparing the results with a human-written baseline. Our findings show that CoT prompting provides consistent energy savings for Qwen2.5-Coder and StableCode-3B, while CodeLlama-7B and Phi-3-Mini-4K fail to outperform the baseline under any prompting strategy. These results highlight that the benefits of prompting are model-dependent and that carefully designed prompts can guide SLMs toward greener software development.
- Abstract(参考訳): ソフトウェア開発における大規模言語モデル(LLM)の環境への影響、特に高エネルギー利用と炭素フットプリントが懸念されている。
SLM(Small Language Models)は、より持続可能な代替手段を提供し、基本的なプログラミングタスクに有効でありながら、少ない計算リソースを必要とする。
本研究では,コード生成におけるSLMの省エネ性の向上について検討した。
我々は、LeetCodeから150のPython問題に対して、StableCode-Instruct-3B、Qwen2.5-Coder-3B-Instruct、CodeLlama-7B-Instruct、Phi-3-Mini-4K-Instructの4つのオープンソースSLMを評価した。
各モデルは、ロールプロンプト、ゼロショット、少数ショット、チェーン・オブ・シント(CoT)という4つのプロンプト戦略の下でテストされる。
生成されたすべてのソリューションに対して、ランタイム、メモリ使用量、エネルギー消費量を測定し、その結果を人手によるベースラインと比較します。
以上の結果から,CoTプロンプトはQwen2.5-CoderとStableCode-3Bに一貫した省エネ効果をもたらすが,CodeLlama-7BとPhi-3-Mini-4Kはどのプロンプト戦略でもベースラインを上回りません。
これらの結果は、プロンプトの利点はモデルに依存しており、慎重に設計されたプロンプトは、SLMをよりグリーンなソフトウェア開発へと導くことができることを示している。
関連論文リスト
- Energy-Aware Code Generation with LLMs: Benchmarking Small vs. Large Language Models for Sustainable AI Programming [2.588812622437082]
我々は,大規模言語モデル (LLM) に対するコード生成を明示的に訓練したオープンソースのSmall Language Models (SLM) と,効率的な人書きPythonコードの評価を行った。
我々はLeetCodeから150のコーディング問題を評価し、難易度、中性度、難易度という3つの難易度に均等に分散した。
LLMは全ての難易度で最高精度を達成するが、SLMは出力が正しければエネルギー効率が良くなる。
論文 参考訳(メタデータ) (2025-08-10T14:44:06Z) - Teaching LLM to Reason: Reinforcement Learning from Algorithmic Problems without Code [76.80306464249217]
本稿では,LLMにより良い理性を教えることを目的としたTeaRを提案する。
TeaRは、注意深いデータキュレーションと強化学習を活用して、コード関連のタスクを通じて最適な推論パスを発見するモデルをガイドする。
我々は、2つのベースモデルと3つの長いCoT蒸留モデルを用いて広範な実験を行い、モデルのサイズは15億から32億のパラメータから、Math、Knowledge、Code、Logical Reasoningにまたがる17のベンチマークにまたがる。
論文 参考訳(メタデータ) (2025-07-10T07:34:05Z) - Resource-Efficient & Effective Code Summarization [3.512140256677132]
QLoRAのようなGreenAI技術は、大規模モデルのサステナビリティを扱うための有望なパスを提供する。
本研究では,Python と Java の2つのプログラミング言語にまたがる最先端の CLM の評価を行った。
その結果、QLoRAはコード要約のためのCLMを効率的に微調整できることがわかった。
論文 参考訳(メタデータ) (2025-02-05T21:06:30Z) - AI-Powered, But Power-Hungry? Energy Efficiency of LLM-Generated Code [45.77395425799378]
本稿では,Python,Java,C++の3つのプログラミング言語に対して,LLM生成コードのエネルギー効率と性能を初めて解析する。
結果から,C++ コードよりも Python と Java の生成に成功していることがわかった。
論文 参考訳(メタデータ) (2025-02-04T15:32:34Z) - GREEN-CODE: Learning to Optimize Energy Efficiency in LLM-based Code Generation [1.5749416770494706]
本研究では,Large Language Models (LLM) におけるエネルギーを考慮したコード生成フレームワークを提案する。
我々は、正確性、レイテンシ、エネルギー消費のトレードオフのバランスをとることを学ぶ強化学習エージェント(RL)を訓練する。
その結果,コード生成作業における平均23~50パーセントのエネルギー消費を,精度に悪影響を及ぼすことなく削減できることが示唆された。
論文 参考訳(メタデータ) (2025-01-19T10:44:03Z) - PerfCodeGen: Improving Performance of LLM Generated Code with Execution Feedback [78.89596149768458]
大規模言語モデル(LLM)は、ソフトウェア開発タスクを支援するために広く採用されている。
LLM生成コードの性能を向上させるトレーニングフリーフレームワークPerfCodeGenを提案する。
論文 参考訳(メタデータ) (2024-11-18T06:22:38Z) - What's Wrong with Your Code Generated by Large Language Models? An Extensive Study [80.18342600996601]
大規模言語モデル(LLM)は、標準解に比べて短いがより複雑なコードを生成する。
3つのカテゴリと12のサブカテゴリを含む誤ったコードに対するバグの分類を開発し、一般的なバグタイプに対する根本原因を分析する。
そこで本研究では,LLMがバグタイプやコンパイラフィードバックに基づいて生成したコードを批判し,修正することのできる,自己批判を導入した新たな学習自由反復手法を提案する。
論文 参考訳(メタデータ) (2024-07-08T17:27:17Z) - Comments as Natural Logic Pivots: Improve Code Generation via Comment Perspective [85.48043537327258]
本稿では, MANGO (comMents As Natural loGic pivOts) を提案する。
その結果、MANGOは強いベースラインに基づいてコードパス率を大幅に改善することがわかった。
論理的なコメントの復号化戦略の堅牢性は、考えの連鎖よりも顕著に高い。
論文 参考訳(メタデータ) (2024-04-11T08:30:46Z) - CodeT5+: Open Code Large Language Models for Code Understanding and
Generation [72.1638273937025]
大きな言語モデル (LLM) は膨大なソースコードで事前訓練されており、コードインテリジェンスにおいて顕著な進歩を遂げている。
CodeT5+は、コンポーネントモジュールを柔軟に組み合わせて、幅広い下流のコードタスクに適合させることができるコードのためのエンコーダ-デコーダLLMのファミリーである。
我々は、ゼロショット、微調整、命令調整を含む20以上のコード関連ベンチマークでCodeT5+を広範囲に評価した。
論文 参考訳(メタデータ) (2023-05-13T14:23:07Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。