論文の概要: Evaluating the Energy Consumption of Machine Learning: Systematic Literature Review and Experiments
- arxiv url: http://arxiv.org/abs/2408.15128v1
- Date: Tue, 27 Aug 2024 15:08:06 GMT
- ステータス: 処理完了
- システム内更新日: 2024-08-28 13:23:24.311020
- Title: Evaluating the Energy Consumption of Machine Learning: Systematic Literature Review and Experiments
- Title(参考訳): 機械学習のエネルギー消費評価 : 体系的文献レビューと実験
- Authors: Charlotte Rodriguez, Laura Degioanni, Laetitia Kameni, Richard Vidal, Giovanni Neglia,
- Abstract要約: 機械学習(ML)のエネルギー消費をモニタリングし、理解し、最適化することは、MLのエネルギー使用量を評価する必要がある様々な理由である。
全てのユースケースでこの疑問に答えられる普遍的なツールは存在しておらず、特定のユースケースのエネルギー消費を評価する方法についても意見の相違があるかもしれない。
- 参考スコア(独自算出の注目度): 16.62572282726245
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Monitoring, understanding, and optimizing the energy consumption of Machine Learning (ML) are various reasons why it is necessary to evaluate the energy usage of ML. However, there exists no universal tool that can answer this question for all use cases, and there may even be disagreement on how to evaluate energy consumption for a specific use case. Tools and methods are based on different approaches, each with their own advantages and drawbacks, and they need to be mapped out and explained in order to select the most suitable one for a given situation. We address this challenge through two approaches. First, we conduct a systematic literature review of all tools and methods that permit to evaluate the energy consumption of ML (both at training and at inference), irrespective of whether they were originally designed for machine learning or general software. Second, we develop and use an experimental protocol to compare a selection of these tools and methods. The comparison is both qualitative and quantitative on a range of ML tasks of different nature (vision, language) and computational complexity. The systematic literature review serves as a comprehensive guide for understanding the array of tools and methods used in evaluating energy consumption of ML, for various use cases going from basic energy monitoring to consumption optimization. Two open-source repositories are provided for further exploration. The first one contains tools that can be used to replicate this work or extend the current review. The second repository houses the experimental protocol, allowing users to augment the protocol with new ML computing tasks and additional energy evaluation tools.
- Abstract(参考訳): 機械学習(ML)のエネルギー消費をモニタリングし、理解し、最適化することは、MLのエネルギー使用量を評価する必要がある様々な理由である。
しかし、全てのユースケースでこの疑問に答えられる普遍的なツールが存在しないため、特定のユースケースのエネルギー消費を評価する方法に意見の相違があるかもしれない。
ツールとメソッドは異なるアプローチに基づいており、それぞれに独自の利点と欠点があります。
私たちはこの課題に2つのアプローチで対処します。
まず,機械学習か汎用ソフトウェアかに関わらず,MLのエネルギー消費(トレーニングと推論の両方)を評価するためのすべてのツールや手法について,体系的な文献レビューを行う。
第2に、これらのツールとメソッドの選択を比較するために、実験的なプロトコルを開発し、使用します。
この比較は、異なる性質(ビジョン、言語)と計算複雑性の様々なMLタスクの質的かつ定量的である。
系統的な文献レビューは、基本的なエネルギーモニタリングから消費最適化に至るまで、MLのエネルギー消費を評価するためのツールや手法の配列を理解するための包括的なガイドとして機能する。
さらなる調査のために、2つのオープンソースリポジトリが提供されている。
最初のものは、この作業を複製したり、現在のレビューを拡張するために使用できるツールを含んでいる。
第2のリポジトリには実験的なプロトコルが格納されており、ユーザーは新しいMLコンピューティングタスクと追加のエネルギー評価ツールでプロトコルを拡張できる。
関連論文リスト
- Normalizing Energy Consumption for Hardware-Independent Evaluation [9.658615045493734]
本稿では,異なるハードウェアプラットフォーム間でのエネルギー消費の正規化手法を提案する。
提案手法は,基準点数,回帰値の種類,および計算量を含めることが正規化過程に大きく影響を与えることを示す。
論文 参考訳(メタデータ) (2024-09-09T13:38:00Z) - Towards Completeness-Oriented Tool Retrieval for Large Language Models [60.733557487886635]
現実世界のシステムは多種多様なツールを組み込んでおり、全てのツールを大規模言語モデルに入力することは不可能である。
既存のツール検索手法は主にユーザクエリとツール記述間のセマンティックマッチングに焦点を当てている。
我々は,ユーザクエリとツール記述のセマンティックな類似性だけでなく,ツールの協調的情報も考慮した,新しいモデル診断型協調学習型ツール検索手法であるCOLTを提案する。
論文 参考訳(メタデータ) (2024-05-25T06:41:23Z) - Towards Coarse-to-Fine Evaluation of Inference Efficiency for Large Language Models [95.96734086126469]
大規模言語モデル(LLM)は、ユーザが仕事を達成するのを助けるアシスタントとして機能し、高度なアプリケーションの開発をサポートする。
LLMの幅広い応用にとって、推論効率は重要な問題であり、既存の研究で広く研究されている。
各種コードライブラリの推論性能の粗大な解析を行う。
論文 参考訳(メタデータ) (2024-04-17T15:57:50Z) - What Are Tools Anyway? A Survey from the Language Model Perspective [67.18843218893416]
言語モデル(LM)は強力だが、主にテキスト生成タスクに向いている。
LMが使用する外部プログラムとしてツールを統一的に定義する。
各種ツールの効率を実証的に検討した。
論文 参考訳(メタデータ) (2024-03-18T17:20:07Z) - T-Eval: Evaluating the Tool Utilization Capability of Large Language
Models Step by Step [69.64348626180623]
大規模言語モデル (LLM) は様々なNLPタスクにおいて顕著な性能を達成した。
LLMのツール活用能力の評価と分析方法はまだ未検討である。
ツール利用能力を段階的に評価するためにT-Evalを導入する。
論文 参考訳(メタデータ) (2023-12-21T17:02:06Z) - Machine Learning for the Multi-Dimensional Bin Packing Problem:
Literature Review and Empirical Evaluation [52.560375022430236]
Bin Packing Problem (BPP) は、よく確立された最適化(CO)問題である。
本稿では、まずBPPを定式化し、その変種と実用的制約を導入する。
次に,多次元BPPのための機械学習に関する総合的な調査を行う。
論文 参考訳(メタデータ) (2023-12-13T12:39:25Z) - Utilizing Domain Knowledge: Robust Machine Learning for Building Energy
Prediction with Small, Inconsistent Datasets [1.1081836812143175]
機械学習(ML)アプリケーションに対する膨大なデータ需要は、現在ボトルネックとなっている。
本稿では,先行知識とデータ駆動手法を組み合わせることで,データの依存性を大幅に低減する手法を提案する。
知識符号化データ駆動手法としてCBMLをエネルギー効率の高い建築工学の文脈で検討する。
論文 参考訳(メタデータ) (2023-01-23T08:56:11Z) - Topology Optimization via Machine Learning and Deep Learning: A Review [4.447467536572626]
トポロジー最適化 (TO) は、設計領域内の与えられた負荷条件と境界条件を満たす最適設計を導出する手法である。
本研究は機械学習に基づくTO(MLTO)に関する過去の研究をレビューし分析する。
論文 参考訳(メタデータ) (2022-10-19T07:47:19Z) - A Survey on Large-scale Machine Learning [67.6997613600942]
機械学習はデータに対する深い洞察を与え、マシンが高品質な予測を行うことを可能にする。
ほとんどの高度な機械学習アプローチは、大規模なデータを扱う場合の膨大な時間コストに悩まされる。
大規模機械学習は、ビッグデータからパターンを、同等のパフォーマンスで効率的に学習することを目的としている。
論文 参考訳(メタデータ) (2020-08-10T06:07:52Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。