論文の概要: GA4GC: Greener Agent for Greener Code via Multi-Objective Configuration Optimization
- arxiv url: http://arxiv.org/abs/2510.04135v1
- Date: Sun, 05 Oct 2025 10:34:30 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-07 16:52:59.480216
- Title: GA4GC: Greener Agent for Greener Code via Multi-Objective Configuration Optimization
- Title(参考訳): GA4GC:多目的構成最適化によるグリーンコードのためのグリーンエージェント
- Authors: Jingzhi Gong, Yixin Bian, Luis de la Cal, Giovanni Pinna, Anisha Uteem, David Williams, Mar Zamorano, Karine Even-Mendoza, W. B. Langdon, Hector Menendez, Federica Sarro,
- Abstract要約: 本稿では,プログラミングエージェントランタイム(グリーンエージェント)とコードパフォーマンス(グリーンコード)のトレードオフを体系的に最適化する最初のフレームワークであるGA4GCを紹介する。
SWE-Perfベンチマークの評価は、最大135倍のハイパーボリューム改善を示し、エージェントランタイムを37.7%削減し、正確性を向上した。
- 参考スコア(独自算出の注目度): 3.3200397756832047
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Coding agents powered by LLMs face critical sustainability and scalability challenges in industrial deployment, with single runs consuming over 100k tokens and incurring environmental costs that may exceed optimization benefits. This paper introduces GA4GC, the first framework to systematically optimize coding agent runtime (greener agent) and code performance (greener code) trade-offs by discovering Pareto-optimal agent hyperparameters and prompt templates. Evaluation on the SWE-Perf benchmark demonstrates up to 135x hypervolume improvement, reducing agent runtime by 37.7% while improving correctness. Our findings establish temperature as the most critical hyperparameter, and provide actionable strategies to balance agent sustainability with code optimization effectiveness in industrial deployment.
- Abstract(参考訳): LLMをベースとするコーディングエージェントは、産業展開において重要な持続可能性とスケーラビリティの課題に直面している。
本稿では,パレート最適エージェントハイパーパラメータを発見し,テンプレートをプロンプトすることにより,プログラミングエージェントランタイム(グリーンエージェント)とコードパフォーマンス(グリーンコード)のトレードオフを体系的に最適化する最初のフレームワークであるGA4GCを紹介する。
SWE-Perfベンチマークの評価は、最大135倍のハイパーボリューム改善を示し、エージェントランタイムを37.7%削減し、正確性を向上した。
本研究は, 温度を最も重要なハイパーパラメータとして確立し, 持続可能性とコード最適化効率のバランスをとるための実行可能な戦略を提供する。
関連論文リスト
- Curriculum-Guided Reinforcement Learning for Synthesizing Gas-Efficient Financial Derivatives Contracts [1.1565257196553245]
本稿では,共通ドメインモデル(CDM)仕様から直接スマートコントラクトを生成するための強化学習フレームワークを提案する。
我々は、事前定義されたライブラリから最適なコードスニペットを選択することを学ぶPPO(Proximal Policy Optimization)エージェントを使用している。
我々の実証実験の結果、RLエージェントは、大きなガス削減を伴う契約を学習し、見当たらない試験データに対して最大35.59%のコスト削減を実現した。
論文 参考訳(メタデータ) (2025-09-28T17:01:55Z) - A Preference-Driven Methodology for High-Quality Solidity Code Generation [13.075308321845505]
PrefGenは、人間の好みを超えて標準DPOを拡張して、定量化されたブロックチェーン固有のメトリクスを組み込む新しいフレームワークである。
本稿では,Pass@k(機能的正当性),Compile@k(機能的正当性),Gas@k(ガス効率),Secure@k(セキュリティ評価)の4つの相補的指標を用いた総合的評価手法を紹介する。
PrefGenは、すべての臨界次元で既存のアプローチを大幅に上回り、66.7%のPass@5、58.9%のGas@5、62.5%のSecure@5を達成している。
論文 参考訳(メタデータ) (2025-06-03T15:45:31Z) - Can We Make Code Green? Understanding Trade-Offs in LLMs vs. Human Code Optimizations [45.243401722182554]
大規模言語モデル(LLM)は、パフォーマンスとエネルギー効率の最適化を開発者が支援すると主張している。
この研究は、科学と工学の応用のために学術と産業の両方で広く使われているマットラブで書かれたソフトウェアに焦点を当てている。
トップ100のGitHubリポジトリで400スクリプトのエネルギ中心の最適化を分析します。
論文 参考訳(メタデータ) (2025-03-26T00:27:29Z) - ECO: An LLM-Driven Efficient Code Optimizer for Warehouse Scale Computers [13.56820317396104]
本稿では,ECO(Efficient Code)について紹介する。
過去1年間、ECOは四半期毎に大幅なパフォーマンスの削減を実現してきた。
平均して、1クォーターあたりのセーブは、500k以上の正規化されたCPUコアに相当する。
論文 参考訳(メタデータ) (2025-03-19T19:52:35Z) - The Dual-use Dilemma in LLMs: Do Empowering Ethical Capacities Make a Degraded Utility? [54.18519360412294]
大きな言語モデル(LLM)は、安全のための有害な要求を拒否することと、ユーティリティのための正当な要求を収容することのバランスをとる必要がある。
本稿では,DPO(Direct Preference Optimization)に基づくアライメントフレームワークを提案する。
我々は,DeepSeek-R1をベンチマークでテストした結果を解析し,この高い評価を得たモデルがもたらす批判的倫理的懸念を明らかにする。
論文 参考訳(メタデータ) (2025-01-20T06:35:01Z) - MADA: Meta-Adaptive Optimizers through hyper-gradient Descent [73.1383658672682]
メタ適応(MADA)は、複数の既知の収束を一般化し、トレーニング中に最も適した収束を動的に学習できる統合フレームワークである。
私たちは、MADAを視覚や言語タスクに関する他の人気と経験的に比較し、MADAがAdamや他の人気を一貫して上回っていることに気付きました。
AVGradは最大演算子を平均演算子に置き換えたもので、高次最適化に適している。
論文 参考訳(メタデータ) (2024-01-17T00:16:46Z) - A Dynamic LLM-Powered Agent Network for Task-Oriented Agent Collaboration [55.35849138235116]
本稿では,様々なタスクやドメインに対する動的コミュニケーション構造において,候補からエージェントのチームを自動的に選択する手法を提案する。
具体的には, LLMを利用したエージェント協調のための動的LLMパワーエージェントネットワーク(textDyLAN$)というフレームワークを構築した。
我々は、コード生成、意思決定、一般的な推論、算術的推論タスクにおいて、適度な計算コストで、DyLANが強力なベースラインを上回ることを実証する。
論文 参考訳(メタデータ) (2023-10-03T16:05:48Z) - Learning Performance-Improving Code Edits [107.21538852090208]
本稿では,大規模言語モデル(LLM)を高レベルプログラム最適化に適用するためのフレームワークを提案する。
まず、競争力のある77,000以上のC++プログラミングサブミッションペアによる、人間のプログラマによるパフォーマンス改善編集のデータセットをキュレートする。
提案手法は,検索をベースとした少数ショットプロンプトとチェーン・オブ・シンクレットを提案し,その微調整には,自己再生に基づく性能条件付き生成と合成データ拡張が含まれる。
論文 参考訳(メタデータ) (2023-02-15T18:59:21Z) - Evolving Pareto-Optimal Actor-Critic Algorithms for Generalizability and
Stability [67.8426046908398]
汎用性と安定性は,実世界における強化学習(RL)エージェントの運用において重要な2つの目的である。
本稿では,アクター・クリティック・ロス関数の自動設計法であるMetaPGを提案する。
論文 参考訳(メタデータ) (2022-04-08T20:46:16Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。