論文の概要: Sustainable Machine Learning Retraining: Optimizing Energy Efficiency Without Compromising Accuracy
- arxiv url: http://arxiv.org/abs/2506.13838v1
- Date: Mon, 16 Jun 2025 12:53:02 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-06-18 17:34:59.183644
- Title: Sustainable Machine Learning Retraining: Optimizing Energy Efficiency Without Compromising Accuracy
- Title(参考訳): 持続可能な機械学習のトレーニング - 精度を損なうことなくエネルギー効率を最適化する
- Authors: Lorena Poenaru-Olaru, June Sallou, Luis Cruz, Jan Rellermeyer, Arie van Deursen,
- Abstract要約: 本稿では,一般的なリトレーニング手法のエネルギー消費について検討する。
最新のデータのみによるリトレーニングは、すべての利用可能なデータと比較して、エネルギー消費を最大25%削減することを示す。
- 参考スコア(独自算出の注目度): 15.684807999989259
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The reliability of machine learning (ML) software systems is heavily influenced by changes in data over time. For that reason, ML systems require regular maintenance, typically based on model retraining. However, retraining requires significant computational demand, which makes it energy-intensive and raises concerns about its environmental impact. To understand which retraining techniques should be considered when designing sustainable ML applications, in this work, we study the energy consumption of common retraining techniques. Since the accuracy of ML systems is also essential, we compare retraining techniques in terms of both energy efficiency and accuracy. We showcase that retraining with only the most recent data, compared to all available data, reduces energy consumption by up to 25\%, being a sustainable alternative to the status quo. Furthermore, our findings show that retraining a model only when there is evidence that updates are necessary, rather than on a fixed schedule, can reduce energy consumption by up to 40\%, provided a reliable data change detector is in place. Our findings pave the way for better recommendations for ML practitioners, guiding them toward more energy-efficient retraining techniques when designing sustainable ML software systems.
- Abstract(参考訳): 機械学習(ML)ソフトウェアシステムの信頼性は、時間とともにデータの変化に大きく影響される。
そのため、MLシステムは定期的なメンテナンスを必要とし、通常はモデルの再トレーニングに基づいている。
しかし、再訓練にはかなりの計算需要が必要であるため、エネルギー集約化が図られ、環境への影響に対する懸念が高まる。
本研究では,持続可能なMLアプリケーションを設計する際に,どのリトレーニング手法を検討するべきかを理解するために,一般的なリトレーニング手法のエネルギー消費について検討する。
MLシステムの精度も不可欠であるため、エネルギー効率と精度の両面で再学習技術の比較を行う。
最新のデータのみによるリトレーニングは、すべての利用可能なデータと比較して、エネルギー消費を最大25\%削減し、現状の代替として持続可能なものであることを示す。
さらに,信頼性の高いデータ変更検出装置が設定されている場合,固定スケジュールではなく更新が必要な場合のみ,モデルの再トレーニングを行うことで,最大40%のエネルギー消費を削減できることが示唆された。
我々の発見は、持続可能なMLソフトウェアシステムを設計する際に、よりエネルギー効率のよいリトレーニング技術に向けて、ML実践者のためのより良いレコメンデーションの道を開いた。
関連論文リスト
- Frugal Machine Learning for Energy-efficient, and Resource-aware Artificial Intelligence [13.783950035836593]
FML(Frugal Machine Learning)とは、機械学習(ML)モデルを設計するプラクティスである。
FMLの戦略は、入力自由度、学習プロセス自由度、モデル自由度に大別できる。
この章では、FMLの最近の進歩、応用、オープンな課題について説明する。
論文 参考訳(メタデータ) (2025-06-02T16:56:21Z) - EcoMLS: A Self-Adaptation Approach for Architecting Green ML-Enabled Systems [1.0923877073891446]
ソフトウェアシステム内での省エネの可能性で認識されている自己適応技術は、マシンラーニングの実現可能なシステムにおいて、まだ広く研究されていない。
本研究は、インテリジェントランタイム適応によるMLSサステナビリティ向上の可能性を明らかにする。
論文 参考訳(メタデータ) (2024-04-17T14:12:47Z) - Cost-Effective Retraining of Machine Learning Models [2.9461360639852914]
データが時間とともに変化するにつれて、そのパフォーマンスを維持するためには、機械学習(ML)モデルを再トレーニングすることが重要です。
これにより、再トレーニングの頻度が高過ぎると、不要な計算コストが発生し、再トレーニングが不十分になる。
本稿では,MLモデルをいつ再トレーニングするかを自動かつ費用対効果で決定するMLシステムを提案する。
論文 参考訳(メタデータ) (2023-10-06T13:02:29Z) - TranDRL: A Transformer-Driven Deep Reinforcement Learning Enabled Prescriptive Maintenance Framework [58.474610046294856]
産業システムは、運用効率を高め、ダウンタイムを減らすための信頼性の高い予測保守戦略を要求する。
本稿では,Transformerモデルに基づくニューラルネットワークと深部強化学習(DRL)アルゴリズムの機能を活用し,システムの保守動作を最適化する統合フレームワークを提案する。
論文 参考訳(メタデータ) (2023-09-29T02:27:54Z) - Fast Machine Unlearning Without Retraining Through Selective Synaptic
Dampening [51.34904967046097]
Selective Synaptic Dampening (SSD)は高速で、訓練データの長期保存を必要としない。
高速で性能が高く,トレーニングデータの長期保存を必要としない,新しい2段階のポストホック,リトレーニングフリーなマシンアンラーニング手法を提案する。
論文 参考訳(メタデータ) (2023-08-15T11:30:45Z) - Privacy Adhering Machine Un-learning in NLP [66.17039929803933]
現実の業界では、機械学習を使ってユーザデータに基づくモデルを構築します。
このような委任事項には、データだけでなく、モデルの再トレーニングにも労力が要る。
データの継続的な削除と モデル再訓練のステップはスケールしません
この課題に対処するために、textitMachine Unlearningを提案する。
論文 参考訳(メタデータ) (2022-12-19T16:06:45Z) - Don't Start From Scratch: Leveraging Prior Data to Automate Robotic
Reinforcement Learning [70.70104870417784]
強化学習(RL)アルゴリズムは、ロボットシステムの自律的なスキル獲得を可能にするという約束を持っている。
現実のロボットRLは、通常、環境をリセットするためにデータ収集と頻繁な人間の介入を必要とする。
本研究では,従来のタスクから収集した多様なオフラインデータセットを効果的に活用することで,これらの課題にどのように対処できるかを検討する。
論文 参考訳(メタデータ) (2022-07-11T08:31:22Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。