論文の概要: "ENERGY STAR" LLM-Enabled Software Engineering Tools
- arxiv url: http://arxiv.org/abs/2601.19260v1
- Date: Tue, 27 Jan 2026 06:40:57 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-02-04 13:52:35.210042
- Title: "ENERGY STAR" LLM-Enabled Software Engineering Tools
- Title(参考訳): エネルギスター」LLM対応ソフトウェアエンジニアリングツール
- Authors: Himon Thakur, Armin Moin,
- Abstract要約: 大規模言語モデル(LLM)が提供する高度な機械学習(ML)機能に焦点を当てる。
提案手法は,LLMに基づくコード生成の品質とエネルギー効率を向上させるために,検索・拡張生成(RAG)とPmpt Engineering Techniques(PET)を組み合わせたものである。
本稿では,多様なモデルアーキテクチャにおけるリアルタイムエネルギー消費と推定時間を測定する包括的フレームワークを提案する。
- 参考スコア(独自算出の注目度): 1.628589561701473
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: The discussion around AI-Engineering, that is, Software Engineering (SE) for AI-enabled Systems, cannot ignore a crucial class of software systems that are increasingly becoming AI-enhanced: Those used to enable or support the SE process, such as Computer-Aided SE (CASE) tools and Integrated Development Environments (IDEs). In this paper, we study the energy efficiency of these systems. As AI becomes seamlessly available in these tools and, in many cases, is active by default, we are entering a new era with significant implications for energy consumption patterns throughout the Software Development Lifecycle (SDLC). We focus on advanced Machine Learning (ML) capabilities provided by Large Language Models (LLMs). Our proposed approach combines Retrieval-Augmented Generation (RAG) with Prompt Engineering Techniques (PETs) to enhance both the quality and energy efficiency of LLM-based code generation. We present a comprehensive framework that measures real-time energy consumption and inference time across diverse model architectures ranging from 125M to 7B parameters, including GPT-2, CodeLlama, Qwen 2.5, and DeepSeek Coder. These LLMs, chosen for practical reasons, are sufficient to validate the core ideas and provide a proof of concept for more in-depth future analysis.
- Abstract(参考訳): AI対応システムのためのAIエンジニアリング(SE)に関する議論は、AIの強化がますます進んでいるソフトウェアシステムの重要なクラスを無視することはできない。
本稿では,これらのシステムのエネルギー効率について検討する。
これらのツールでAIがシームレスに利用可能になり、多くの場合、デフォルトで活動しているため、私たちは、ソフトウェア開発ライフサイクル(SDLC)全体において、エネルギー消費パターンに大きな影響を与える新しい時代に入ります。
我々は、Large Language Models(LLM)が提供する高度な機械学習(ML)機能に焦点を当てる。
提案手法は,LLMに基づくコード生成の品質とエネルギー効率を向上させるために,検索・拡張生成(RAG)とPmpt Engineering Techniques(PET)を組み合わせたものである。
本稿では,GPT-2,CodeLlama,Qwen 2.5,DeepSeek Coderなど,125Mから7Bまでの多種多様なモデルアーキテクチャにおいて,リアルタイムなエネルギー消費と推定時間を計測する包括的フレームワークを提案する。
これらのLSMは、実際的な理由から選択され、コアアイデアを検証するのに十分であり、より詳細な将来分析のための概念実証を提供する。
関連論文リスト
- Rethinking Technology Stack Selection with AI Coding Proficiency [49.617080246389605]
大規模言語モデル(LLM)は今やソフトウェア開発の不可欠な部分です。
我々は、LLMが与えられた技術を用いて高品質なコードスニペットを生成することができる、AI符号化能力という概念を提案する。
我々は,170のサードパーティ製ライブラリと61のタスクシナリオを対象とした,AI習熟度に関する初の総合的研究を行った。
論文 参考訳(メタデータ) (2025-09-14T06:56:47Z) - A Survey on Code Generation with LLM-based Agents [61.474191493322415]
大規模言語モデル(LLM)を利用したコード生成エージェントは、ソフトウェア開発パラダイムに革命をもたらしている。
LLMは3つのコア特徴によって特徴づけられる。
本稿では,LLMに基づくコード生成エージェントの分野を体系的に調査する。
論文 参考訳(メタデータ) (2025-07-31T18:17:36Z) - Edge-Cloud Collaborative Computing on Distributed Intelligence and Model Optimization: A Survey [58.50944604905037]
エッジクラウドコラボレーティブコンピューティング(ECCC)は、現代のインテリジェントアプリケーションの計算要求に対処するための重要なパラダイムとして登場した。
AIの最近の進歩、特にディープラーニングと大規模言語モデル(LLM)は、これらの分散システムの能力を劇的に向上させてきた。
この調査は、基本的なアーキテクチャ、技術の実現、新しいアプリケーションに関する構造化されたチュートリアルを提供する。
論文 参考訳(メタデータ) (2025-05-03T13:55:38Z) - SENAI: Towards Software Engineering Native Generative Artificial Intelligence [3.915435754274075]
本稿では,ソフトウェア工学の知識を大規模言語モデルに統合することについて議論する。
本研究の目的は,LLMが単なる機能的精度を超えて生成タスクを実行できる新しい方向を提案することである。
ソフトウェアエンジニアリング ネイティブな生成モデルは、現在のモデルに存在する欠点を克服するだけでなく、現実世界のソフトウェアエンジニアリングを扱うことができる次世代の生成モデルへの道を開くでしょう。
論文 参考訳(メタデータ) (2025-03-19T15:02:07Z) - Can Large-Language Models Help us Better Understand and Teach the Development of Energy-Efficient Software? [2.8812501020074968]
エネルギー効率のよいソフトウェア工学の技術は、しばしば学部のカリキュラムから欠落している。
本稿では,エネルギー効率のよいソフトウェアのための学習用モジュールの開発について提案する。
論文 参考訳(メタデータ) (2024-10-30T01:09:32Z) - Augmenting software engineering with AI and developing it further towards AI-assisted model-driven software engineering [0.0]
本稿は,AIを活用したソフトウェア工学の現状を概説し,それに対応する分類学であるai4seを開発した。
ソフトウェア開発におけるAI支援型ビッグデータのビジョンは、両方のアプローチに固有の利点を活かすことを目的としている。
論文 参考訳(メタデータ) (2024-09-26T16:49:57Z) - Toward Cross-Layer Energy Optimizations in AI Systems [4.871463967255196]
エネルギー効率は、人工知能の採用に歯止めをかける要因になる可能性が高い。
人工知能(AI)や機械学習(ML)ツールや技術の普及によって、そのエネルギー効率が採用への歯止め要因になりそうである。
これは、生成AI(GenAI)モデルが巨大なエネルギー豚であるからである。
推論はさらにエネルギーを消費する。
論文 参考訳(メタデータ) (2024-04-10T01:35:17Z) - Machine Learning Insides OptVerse AI Solver: Design Principles and
Applications [74.67495900436728]
本稿では,Huawei CloudのOpsVerse AIソルバに機械学習(ML)技術を統合するための総合的研究について述べる。
本稿では,実世界の多面構造を反映した生成モデルを用いて,複雑なSATインスタンスとMILPインスタンスを生成する手法を紹介する。
本稿では,解解器性能を著しく向上させる,最先端パラメータチューニングアルゴリズムの導入について詳述する。
論文 参考訳(メタデータ) (2024-01-11T15:02:15Z) - Trends in Energy Estimates for Computing in AI/Machine Learning
Accelerators, Supercomputers, and Compute-Intensive Applications [3.2634122554914]
幾何スケーリング法則により駆動される異なるシステムの計算エネルギー要求について検討する。
幾何スケーリングによるエネルギー効率が低下していることを示す。
応用レベルでは、汎用AI-ML手法は計算エネルギー集約化が可能である。
論文 参考訳(メタデータ) (2022-10-12T16:14:33Z) - Automated Machine Learning: A Case Study on Non-Intrusive Appliance Load Monitoring [81.06807079998117]
非侵入的機器負荷モニタリング(NIALM)のための自動機械学習(AutoML)を実現する新しい手法を提案する。
NIALMは、電子機器や家電のエネルギー消費を測定するためのスマートメーターに代わる費用対効果を提供する。
論文 参考訳(メタデータ) (2022-03-06T10:12:56Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。