論文の概要: Who Wins the Race? (R Vs Python) - An Exploratory Study on Energy Consumption of Machine Learning Algorithms
- arxiv url: http://arxiv.org/abs/2508.17344v1
- Date: Sun, 24 Aug 2025 12:59:47 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-08-26 18:43:45.481474
- Title: Who Wins the Race? (R Vs Python) - An Exploratory Study on Energy Consumption of Machine Learning Algorithms
- Title(参考訳): 誰がレースに勝つのか(R Vs Python) - 機械学習アルゴリズムのエネルギー消費に関する探索的研究
- Authors: Rajrupa Chattaraj, Sridhar Chimalakonda, Vibhu Saujanya Sharma, Vikrant Kaulgud,
- Abstract要約: 本稿では、機械学習モデルトレーニングと推論に異なるプログラミング言語を採用する際のエネルギーコストの意識を高めることを目的とする。
その結果,95%の症例において,両言語間のコストの統計的に有意な差が認められた。
プログラミング言語の選択は、モデルトレーニング中に99.16%まで、推論時に99.8%まで、エネルギー効率に大きな影響を与える可能性がある。
- 参考スコア(独自算出の注目度): 5.294137281815185
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The utilization of Machine Learning (ML) in contemporary software systems is extensive and continually expanding. However, its usage is energy-intensive, contributing to increased carbon emissions and demanding significant resources. While numerous studies examine the performance and accuracy of ML, only a limited few focus on its environmental aspects, particularly energy consumption. In addition, despite emerging efforts to compare energy consumption across various programming languages for specific algorithms and tasks, there remains a gap specifically in comparing these languages for ML-based tasks. This paper aims to raise awareness of the energy costs associated with employing different programming languages for ML model training and inference. Through this empirical study, we measure and compare the energy consumption along with run-time performance of five regression and five classification tasks implemented in Python and R, the two most popular programming languages in this context. Our study results reveal a statistically significant difference in costs between the two languages in 95% of the cases examined. Furthermore, our analysis demonstrates that the choice of programming language can influence energy efficiency significantly, up to 99.16% during model training and up to 99.8% during inferences, for a given ML task.
- Abstract(参考訳): 現代のソフトウェアシステムにおける機械学習(ML)の利用は広範かつ継続的に拡大している。
しかし、その利用はエネルギー集約的であり、二酸化炭素排出量の増加と重要な資源の需要に寄与している。
多くの研究がMLの性能と正確性について調べているが、その環境面、特にエネルギー消費に焦点を絞るのはごくわずかである。
さらに、特定のアルゴリズムやタスクのために、様々なプログラミング言語のエネルギー消費を比較する努力が増えているにもかかわらず、これらの言語をMLベースのタスクと比較する際、特に差がある。
本稿では,MLモデルトレーニングと推論に異なるプログラム言語を採用する際のエネルギーコストに対する意識を高めることを目的とする。
本研究では,Python と R で実装された5つの分類タスクと5つの回帰の実行時性能と,この文脈で最もポピュラーな2つのプログラミング言語のエネルギー消費を測定し,比較する。
その結果,95%の症例において,両言語間のコストの統計的に有意な差が認められた。
さらに,機械学習タスクにおいて,モデルトレーニング時に99.16%,推論時に99.8%まで,プログラミング言語の選択がエネルギー効率に大きく影響を及ぼすことを示した。
関連論文リスト
- Assessing Small Language Models for Code Generation: An Empirical Study with Benchmarks [4.448709087838503]
小型言語モデル(SLM)は、大規模言語モデル(LLM)の軽量で費用対効果の高い代替手段を提供する。
本研究では,5つのコード関連ベンチマークにおいて,0.4Bから10Bまでの20個のオープンソースSLMの総合的評価を行った。
論文 参考訳(メタデータ) (2025-07-03T20:32:36Z) - Prompt engineering and its implications on the energy consumption of Large Language Models [4.791072577881446]
ソフトウェア工学における大規模言語モデル(LLM)は、計算資源、データセンター、二酸化炭素排出に関する深刻な問題を引き起こす。
本稿では,コード生成タスクにおけるLlama 3モデルの炭素排出に及ぼすPETの影響について検討する。
論文 参考訳(メタデータ) (2025-01-10T11:49:31Z) - Darkit: A User-Friendly Software Toolkit for Spiking Large Language Model [50.37090759139591]
大規模言語モデル(LLM)は、数十億のパラメータからなる様々な実践的応用に広く応用されている。
人間の脳は、生物工学的なスパイキング機構を使って、エネルギー消費を大幅に削減しながら、同じ仕事をこなすことができる。
私たちはDarwinKit(Darkit)という名のソフトウェアツールキットをリリースし、脳にインスパイアされた大きな言語モデルの採用を加速しています。
論文 参考訳(メタデータ) (2024-12-20T07:50:08Z) - Reproducibility, energy efficiency and performance of pseudorandom
number generators in machine learning: a comparative study of python, numpy,
tensorflow, and pytorch implementations [0.0]
Pseudo-Random Number Generators (PRNGs) は、機械学習技術において多くの手法に興味深いため、ユビキタスになった。
本研究では,Pseudo-Random Number Generators (PRNGs) を機械学習言語,ライブラリ,フレームワークで採用し,オリジナルのC実装と比較して統計的品質と数値を高く評価するかどうかを検討する。
論文 参考訳(メタデータ) (2024-01-30T15:44:14Z) - Breaking Language Barriers in Multilingual Mathematical Reasoning: Insights and Observations [59.056367787688146]
本稿では, マルチリンガル数学推論 (xMR) LLM の探索と学習の先駆者である。
我々は10の異なる言語を含む最初の多言語数学推論命令データセットMGSM8KInstructを構築した。
翻訳を利用して、10個の異なる言語を含む最初の多言語数学推論命令データセットMGSM8KInstructを構築した。
論文 参考訳(メタデータ) (2023-10-31T08:09:20Z) - PaLM: Scaling Language Modeling with Pathways [180.69584031908113]
我々は,パスウェイズ言語モデル PaLM と呼ばれるトランスフォーマー言語モデルを用いて,540ビリオンのパラメータを訓練した。
我々はPathwaysという新しいMLシステムを用いて,6144 TPU v4チップ上でPaLMをトレーニングした。
数百の言語理解および生成ベンチマーク上で、最先端の数発の学習結果を達成し、スケーリングの継続的なメリットを実証する。
論文 参考訳(メタデータ) (2022-04-05T16:11:45Z) - Improving Classifier Training Efficiency for Automatic Cyberbullying
Detection with Feature Density [58.64907136562178]
言語支援の異なる特徴前処理手法を用いて特徴密度(FD)の有効性を検討した。
データセットの複雑さを推定することで、必要な実験の数を削減できると仮定する。
データセットの言語的複雑さの違いにより、言語的に支援された単語前処理の有効性を議論することが可能になる。
論文 参考訳(メタデータ) (2021-11-02T15:48:28Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。