論文の概要: CodeGreen: Towards Improving Precision and Portability in Software Energy Measurement
- arxiv url: http://arxiv.org/abs/2603.17924v1
- Date: Wed, 18 Mar 2026 17:01:12 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-03-19 18:32:57.837303
- Title: CodeGreen: Towards Improving Precision and Portability in Software Energy Measurement
- Title(参考訳): CodeGreen: ソフトウェアのエネルギー測定における精度とポータビリティ向上を目指す
- Authors: Saurabhsingh Rajput, Tushar Sharma,
- Abstract要約: 計測からインスツルメンテーションを分離するモジュール式エネルギー測定プラットフォームであるCodeGreenを紹介する。
ハードウェアセンサを独立してポーリングするNative Energy Measurement Backend (NEMB)を実装した。
CodeGreenは、Tree-sitter ASTクエリを活用して、Python、C++、C、Javaにまたがる自動インスツルメンテーションを実現している。
- 参考スコア(独自算出の注目度): 2.3228733137875524
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Accurate software energy measurement is critical for optimizing energy, yet existing profilers force a trade-off between measurement accuracy and overhead due to tight coupling with supported specific hardware or languages. We present CodeGreen, a modular energy measurement platform that decouples instrumentation from measurement via an asynchronous producer-consumer architecture. We implement a Native Energy Measurement Backend (NEMB) that polls hardware sensors (Intel RAPL, NVIDIA NVML, AMD ROCm) independently, while lightweight timestamp markers enable tunable granularity. CodeGreen leverages Tree-sitter AST queries for automated instrumentation across Python, C++, C, and Java, with straightforward extension to any Tree-sitter-supported grammar, enabling developers to target specific scopes (loops, methods, classes) without manual intervention. Validation against "Computer Language Benchmarks Game" demonstrates $R^2 = 0.9934$ correlation with RAPL ground truth and $R^2 = 0.9997$ energy-workload linearity. By bridging fine-grained measurement precision with cross-platform portability, CodeGreen enables practical algorithmic energy optimization across heterogeneous environments. Source code, video demonstration, and documentation for the tool are publicly available at: https://smart-dal.github.io/codegreen/.
- Abstract(参考訳): 正確なソフトウェアエネルギー測定はエネルギーを最適化するために重要であるが、既存のプロファイラは特定のハードウェアや言語との密結合により測定精度とオーバーヘッドのトレードオフを強いる。
非同期プロデューサ・コンシューマーアーキテクチャを用いて計測から計測を分離するモジュール式エネルギー測定プラットフォームであるCodeGreenを提案する。
我々は、ハードウェアセンサ(Intel RAPL、NVIDIA NVML、AMD ROCm)を独立にポーリングするNative Energy Measurement Backend (NEMB)を実装し、軽量なタイムスタンプマーカーは調整可能な粒度を実現する。
CodeGreenは、Python、C++、C、Java間の自動インスツルメンテーションにTree-sitter ASTクエリを活用し、Tree-sitterをサポートする文法を直接拡張することで、開発者は手動で介入することなく特定のスコープ(ループ、メソッド、クラス)をターゲットにすることができる。
コンピュータ言語ベンチマークゲーム」に対する検証では、$R^2 = 0.9934$ と RAPL 基底真理および$R^2 = 0.9997$ エネルギー-ワークロード線形性との相関が示されている。
クロスプラットフォームのポータビリティできめ細かい測定精度をブリッジすることにより、CodeGreenは異種環境全体にわたって実用的なアルゴリズムによるエネルギー最適化を実現する。
ツールのソースコード、ビデオデモ、ドキュメントは、https://smart-dal.github.io/codegreen/.comで公開されている。
関連論文リスト
- Environment-Aware Code Generation: How far are We? [52.69113158357018]
大規模言語モデル(LLM)がユーザの特定の環境に適した実行可能コードを確実に生成できるかどうかは不明である。
本稿では,環境対応コード生成(EACG)の最初の体系的研究について述べる。
その結果,現在のLLMは環境固有のコード生成に苦しむ一方で,環境の適合性や実行性も向上していることがわかった。
論文 参考訳(メタデータ) (2026-01-18T04:58:15Z) - Counting Without Running: Evaluating LLMs' Reasoning About Code Complexity [2.7389338551082605]
性能ボトルネックを予測するため,LLM(Large Language Models)のベンチマークを開発した。
FLOPBenchは577カーネルの単精度と倍精度のFLOP数を予測する。
われわれはFLOPBenchをLLMツールの開発に焦点をあてたテストベッドとして位置づけた。
論文 参考訳(メタデータ) (2025-12-04T01:03:20Z) - SwingArena: Competitive Programming Arena for Long-context GitHub Issue Solving [90.32201622392137]
We present SwingArena, a competitive evaluation framework for Large Language Models (LLMs)。
従来の静的ベンチマークとは異なり、SwingArenaはLLMをイテレーションとして組み合わせて、テストケースを作成し、継続的インテグレーション(CI)パイプラインを通じてパッチを検証するパッチとレビュアーを生成することで、ソフトウェアのコラボレーションプロセスをモデル化する。
論文 参考訳(メタデータ) (2025-05-29T18:28:02Z) - NGPU-LM: GPU-Accelerated N-Gram Language Model for Context-Biasing in Greedy ASR Decoding [54.88765757043535]
この研究は、統計的なn-gram言語モデルのデータ構造を再考し、GPU最適化推論の高速かつ並列な操作を可能にする。
我々のアプローチは NGPU-LM と呼ばれ、7% 未満の計算オーバーヘッドを持つ全ての主要な ASR モデルに対して、カスタマイズ可能なgreedy decoding を導入している。
提案手法は,ビーム探索による顕著な遅延を回避しつつ,greedy と beam search の精度ギャップの50%以上を排除できる。
論文 参考訳(メタデータ) (2025-05-28T20:43:10Z) - GREEN-CODE: Learning to Optimize Energy Efficiency in LLM-based Code Generation [1.5749416770494706]
本研究では,Large Language Models (LLM) におけるエネルギーを考慮したコード生成フレームワークを提案する。
我々は、正確性、レイテンシ、エネルギー消費のトレードオフのバランスをとることを学ぶ強化学習エージェント(RL)を訓練する。
その結果,コード生成作業における平均23~50パーセントのエネルギー消費を,精度に悪影響を及ぼすことなく削減できることが示唆された。
論文 参考訳(メタデータ) (2025-01-19T10:44:03Z) - CPPJoules: An Energy Measurement Tool for C++ [3.9373541926236766]
CPPJoulesはIntel-RAPL上に構築されたC++コードスニペットのエネルギー消費を測定するツールである。
我々は,Rosetta Codeレポジトリから標準計算タスクのエネルギー消費を測定することで,ツールの評価を行った。
論文 参考訳(メタデータ) (2024-12-18T07:11:56Z) - Hardware-Aware Parallel Prompt Decoding for Memory-Efficient Acceleration of LLM Inference [23.633481089469836]
LLM(Large Language Models)の自動回帰デコーディングは、ハードウェアの性能に大きなオーバーヘッドをもたらす。
トレーニング可能なパラメータを0.0002$%しか必要とせず,A100-40GBのGPUをたった16時間で効率的にトレーニングできる並列プロンプトデコーディングを提案する。
我々のアプローチでは、最大2.49$times$ スピードアップを示し、最小のメモリオーバーヘッドは0.0004$%である。
論文 参考訳(メタデータ) (2024-05-28T22:19:30Z) - MiM-ISTD: Mamba-in-Mamba for Efficient Infrared Small Target Detection [72.46396769642787]
ネスト構造であるMamba-in-Mamba(MiM-ISTD)を開発した。
MiM-ISTDはSOTA法より8倍高速で、2048×2048$のイメージでテストすると、GPUメモリ使用率を62.2$%削減する。
論文 参考訳(メタデータ) (2024-03-04T15:57:29Z) - Spatial-information Guided Adaptive Context-aware Network for Efficient
RGB-D Semantic Segmentation [9.198120596225968]
計算パラメータを削減し,アルゴリズムの堅牢性を保証する,効率的な軽量エンコーダデコーダネットワークを提案する。
また,NYUv2,SUN RGB-D,Cityscapesのデータセットを用いた実験結果から,本手法は最先端手法よりもセグメンテーション精度,推定時間,パラメータのトレードオフが良好であることが示された。
論文 参考訳(メタデータ) (2023-08-11T09:02:03Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。