論文の概要: An Initial Exploration of Contrastive Prompt Tuning to Generate Energy-Efficient Code
- arxiv url: http://arxiv.org/abs/2604.02352v1
- Date: Tue, 03 Mar 2026 12:36:15 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-04-19 19:09:11.329651
- Title: An Initial Exploration of Contrastive Prompt Tuning to Generate Energy-Efficient Code
- Title(参考訳): エネルギー効率の良いコード生成のためのコントラストプロンプトチューニングの初期探索
- Authors: Sophie Weidmann, Fernando Castor,
- Abstract要約: 本研究の目的は, LLM がエネルギー効率の良いコード生成にどう最適化できるか, 検討することである。
CPTはContrastive Learningテクニックを組み合わせることで、モデルが効率的かつ非効率なコードを区別するのに役立つ。
本研究では,Python,Java,C++の3つのモデルにまたがるコーディング問題のCPTを評価し,包括的評価を行う。
- 参考スコア(独自算出の注目度): 46.879983975894135
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Although LLMs are capable of generating functionally correct code, they also tend to produce less energy-efficient code in comparison to human-written solutions. As these inefficiencies lead to higher computational overhead, they are in direct conflict with Green Software Development (GSD) efforts, which aim to reduce the energy consumption of code. To support these efforts, this study aims to investigate whether and how LLMs can be optimized to promote the generation of energy-efficient code. To this end, we employ Contrastive Prompt Tuning (CPT). CPT combines Contrastive Learning techniques, which help the model to distinguish between efficient and inefficient code, and Prompt Tuning, a Parameter-Efficient Fine Tuning (PEFT) approach that requires only a fraction of the cost of traditional fine tuning. This study evaluates CPT on Python, Java and C++ coding problems across three different models to provide a comprehensive evaluation. The method achieves consistent improvements in code accuracy for two models but efficiency gains vary by model, language and task complexity, indicating that improvements are not uniformly reliable.
- Abstract(参考訳): LLMは機能的に正しいコードを生成することができるが、人間によるソリューションに比べてエネルギー効率の低いコードを生成する傾向がある。
これらの非効率性は高い計算オーバーヘッドをもたらすため、コードのエネルギー消費を減らすことを目的とした、グリーンソフトウェア開発(GSD)の取り組みと直接衝突している。
これらの取り組みを支援するため、エネルギー効率の良いコードの生成を促進するためにLLMをどう最適化できるかを検討することを目的とする。
この目的のために、Contrastive Prompt Tuning (CPT) を採用している。
CPTは、モデルが効率的かつ非効率なコードを区別するのに役立つContrastive Learningテクニックと、従来の微調整のコストのごく一部しか必要としないパラメータ効率の良い微調整(PEFT)アプローチであるPrompt Tuningを組み合わせている。
本研究では,Python,Java,C++の3つのモデルにまたがるコーディング問題のCPTを評価し,包括的評価を行う。
この手法は、2つのモデルのコード精度を一貫して改善するが、効率の向上はモデル、言語、タスクの複雑さによって異なり、改善が一様でないことを示している。
関連論文リスト
- Prompt engineering and framework: implementation to increase code reliability based guideline for LLMs [0.0]
生成されたコードスニペットの品質と正確性を改善するために,プロンプトテンプレートを導入する。
提案手法はPass@kメートル法においてゼロショット法やチェーン・オブ・ソート法(CoT)法よりも優れていることを示す。
論文 参考訳(メタデータ) (2025-03-19T18:33:08Z) - LLM4EFFI: Leveraging Large Language Models to Enhance Code Efficiency and Correctness [38.399282089600284]
大規模言語モデル(LLM)は、コード生成において素晴らしいパフォーマンスを示している。
ulineLarge ulineLanguage ulineModel for Code ulineEfficiencyは、LLMが効率性と正確性の両方のバランスをとるコードを生成することができる新しいフレームワークである。
論文 参考訳(メタデータ) (2025-02-17T07:01:18Z) - CodeDPO: Aligning Code Models with Self Generated and Verified Source Code [52.70310361822519]
我々は、コード生成に好み学習を統合するフレームワークであるCodeDPOを提案し、コードの正確性と効率性という2つの重要なコード優先要因を改善した。
CodeDPOは、コードとテストケースを同時に生成、評価するセルフジェネレーション・アンド・バリデーションメカニズムを利用して、新しいデータセット構築方法を採用している。
論文 参考訳(メタデータ) (2024-10-08T01:36:15Z) - Improving LLM Reasoning through Scaling Inference Computation with Collaborative Verification [52.095460362197336]
大規模言語モデル(LLM)は一貫性と正確な推論に苦しむ。
LLMは、主に正しいソリューションに基づいて訓練され、エラーを検出して学習する能力を減らす。
本稿では,CoT(Chain-of-Thought)とPoT(Program-of-Thought)を組み合わせた新しい協調手法を提案する。
論文 参考訳(メタデータ) (2024-10-05T05:21:48Z) - Measuring Code Efficiency Optimization Capabilities with ACEOB [7.4056083791645495]
モデルトレーニングデータセットの「コードパターン」を詳細に分析し、人間の手書きコードを慎重に探索する。
95,359組の効率非効率コードからなる自動コード効率最適化ベンチマーク(ACEOB)を導入する。
私たちの知る限り、ACEOBはPythonコードの効率最適化に特化した最初のデータセットです。
論文 参考訳(メタデータ) (2024-08-23T10:10:37Z) - Exploring Data-Efficient Adaptation of Large Language Models for Code Generation [64.5583894165813]
コード生成のための誤り駆動学習を用いたデータ効率向上のための新しい適応手法DEEDを提案する。
実験により、他の主流の微調整手法と比較して、DEEDは訓練データが少なく、優れた性能を発揮することが示された。
論文 参考訳(メタデータ) (2024-02-29T16:09:02Z) - Execution-based Code Generation using Deep Reinforcement Learning [8.085533911328577]
PPOCoderは、事前訓練されたPLモデルとプロキシポリシー最適化を組み合わせた、コード生成のための新しいフレームワークである。
PPOCoderは、外部コード固有の知識をモデル最適化プロセスにシームレスに統合する。
PPOCoderはタスクに依存しない、モデルに依存しないフレームワークで、さまざまなコード生成タスクやPLで使用できます。
論文 参考訳(メタデータ) (2023-01-31T18:02:26Z) - Effective Pre-Training Objectives for Transformer-based Autoencoders [97.99741848756302]
トランスフォーマーエンコーダの効率,コスト,精度のトレードオフについて検討する。
共通の目的の機能を組み合わせて、新しい効果的な事前学習アプローチを作成します。
論文 参考訳(メタデータ) (2022-10-24T18:39:44Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。