論文の概要: Generating Energy-efficient code with LLMs
- arxiv url: http://arxiv.org/abs/2411.10599v1
- Date: Fri, 15 Nov 2024 21:45:58 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-11-19 14:36:10.828125
- Title: Generating Energy-efficient code with LLMs
- Title(参考訳): LLMを用いたエネルギー効率コードの生成
- Authors: Tom Cappendijk, Pepijn de Reus, Ana Oprescu,
- Abstract要約: 生成したコードのエネルギー消費に対する即時修正の影響を考察する。
使用されている言語モデルは、CodeLlama-70b、CodeLlama-70b-Python、DeepSeek-Coder-33b-base、DeepSeek-Coder-33b-instructである。
- 参考スコア(独自算出の注目度): 0.0
- License:
- Abstract: The increasing electricity demands of personal computers, communication networks, and data centers contribute to higher atmospheric greenhouse gas emissions, which in turn lead to global warming and climate change. Therefore the energy consumption of code must be minimized. Code can be generated by large language models. We look at the influence of prompt modification on the energy consumption of the code generated. We use three different Python code problems of varying difficulty levels. Prompt modification is done by adding the sentence ``Give me an energy-optimized solution for this problem'' or by using two Python coding best practices. The large language models used are CodeLlama-70b, CodeLlama-70b-Instruct, CodeLlama-70b-Python, DeepSeek-Coder-33b-base, and DeepSeek-Coder-33b-instruct. We find a decrease in energy consumption for a specific combination of prompt optimization, LLM, and Python code problem. However, no single optimization prompt consistently decreases energy consumption for the same LLM across the different Python code problems.
- Abstract(参考訳): パーソナルコンピュータ、通信ネットワーク、データセンターの電力需要の増加は、大気中の温室効果ガス排出量の増加に寄与し、地球温暖化や気候変動につながっている。
したがって、コードのエネルギー消費は最小化されなければならない。
コードは大きな言語モデルで生成できる。
生成したコードのエネルギー消費に対する即時修正の影響を考察する。
難易度が異なる3つの異なるPythonコード問題を使用します。
プロンプト修正は、“この問題に対してエネルギーを最適化したソリューションを私に提供”という文を追加するか、2つのPythonコーディングベストプラクティスを使用することで行う。
使用されている言語モデルは、CodeLlama-70b、CodeLlama-70b-Python、DeepSeek-Coder-33b-base、DeepSeek-Coder-33b-instructである。
我々は,プロンプト最適化,LLM,Pythonのコード問題と,特定の組み合わせによるエネルギー消費の減少を見出した。
しかし、単一の最適化は、異なるPythonコードの問題に対して、同じLLMのエネルギー消費を一貫して減少させる。
関連論文リスト
- How Maintainable is Proficient Code? A Case Study of Three PyPI Libraries [3.0105723746073]
ファイル内の有能なコードのリスクレベルについて検討する。
リスクの高い高度に熟練したコードのいくつかの例を特定します。
この研究は、開発者が有能なコードが将来のコードメンテナンス活動に有害かもしれないシナリオを特定するのに役立ちます。
論文 参考訳(メタデータ) (2024-10-08T04:45:11Z) - Refactoring to Pythonic Idioms: A Hybrid Knowledge-Driven Approach Leveraging Large Language Models [23.181371435793494]
多くのPythonユーザは、Pythonのイディオムを使うのが難しいと感じている。
規則の決定とLLMの適応性に動機付けられ,我々はハイブリッドアプローチを提案する。
論文 参考訳(メタデータ) (2024-06-06T00:22:46Z) - A Controlled Experiment on the Energy Efficiency of the Source Code Generated by Code Llama [4.937787069991124]
ソフトウェア開発者の83%がコード生成にLLM(Large Language Models)を使用している。
本稿では,人手によるソースコードに関して,コードラマのエネルギー効率を評価する。
論文 参考訳(メタデータ) (2024-05-06T16:32:29Z) - Code Prompting Elicits Conditional Reasoning Abilities in Text+Code LLMs [65.2379940117181]
自然言語の問題をコードに変換する一連のプロンプトであるコードプロンプトを導入します。
コードプロンプトは複数のLLMに対して高速に向上することがわかった。
GPT 3.5を解析した結果,入力問題のコードフォーマッティングが性能向上に不可欠であることが判明した。
論文 参考訳(メタデータ) (2024-01-18T15:32:24Z) - Code Llama: Open Foundation Models for Code [93.30115424203868]
私たちはLlama 2.0をベースにしたコードのための大規模言語モデルのファミリーであるCode Llamaをリリースした。
Code Llamaは、いくつかのコードベンチマークで、オープンモデルの最先端のパフォーマンスに達する。
私たちはCode Llamaをパーミッシブライセンスでリリースし、研究と商用の両方の使用を可能にします。
論文 参考訳(メタデータ) (2023-08-24T17:39:13Z) - WizardCoder: Empowering Code Large Language Models with Evol-Instruct [67.24653703564492]
WezardCoderは、複雑な命令の微調整でコードLLMをパワーアップする。
私たちのモデルは、他のすべてのオープンソースコードLLMをかなり上回ります。
論文 参考訳(メタデータ) (2023-06-14T15:18:48Z) - CodeT5+: Open Code Large Language Models for Code Understanding and
Generation [72.1638273937025]
大きな言語モデル (LLM) は膨大なソースコードで事前訓練されており、コードインテリジェンスにおいて顕著な進歩を遂げている。
CodeT5+は、コンポーネントモジュールを柔軟に組み合わせて、幅広い下流のコードタスクに適合させることができるコードのためのエンコーダ-デコーダLLMのファミリーである。
我々は、ゼロショット、微調整、命令調整を含む20以上のコード関連ベンチマークでCodeT5+を広範囲に評価した。
論文 参考訳(メタデータ) (2023-05-13T14:23:07Z) - AceCoder: Utilizing Existing Code to Enhance Code Generation [45.034292331340524]
既存のプロンプト技術は自然言語生成用に設計されており、コード生成の精度は低い。
AceCoderには、これらの課題を解決するための2つの新しいメカニズム(ガイド付きコード生成とサンプル検索)が含まれている。
その結果、AceCoderはコード生成におけるLLMの性能を大幅に改善できることがわかった。
論文 参考訳(メタデータ) (2023-03-31T02:57:15Z) - PyGlove: Efficiently Exchanging ML Ideas as Code [81.80955202879686]
PyGloveは、アイデアを象徴的なルールベースのパッチとして表現している。
これによって、チーム間のネットワーク効果が実現します – 一度に、すべてのチームが他のすべてのチームにパッチを発行することができます。
論文 参考訳(メタデータ) (2023-02-03T18:52:09Z) - PAL: Program-aided Language Models [112.94785609781503]
自然言語問題を理解するために,プログラム支援言語モデル(PaL)を提案する。
PaLはソリューションステップをPythonインタプリタのようなプログラムランタイムにオフロードする。
私たちは12のベンチマークで新しい最先端の結果を設定しました。
論文 参考訳(メタデータ) (2022-11-18T18:56:13Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。