論文の概要: Spend More to Save More (SM2): An Energy-Aware Implementation of Successive Halving for Sustainable Hyperparameter Optimization
- arxiv url: http://arxiv.org/abs/2412.08526v1
- Date: Wed, 11 Dec 2024 16:37:44 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-12-12 14:01:37.627120
- Title: Spend More to Save More (SM2): An Energy-Aware Implementation of Successive Halving for Sustainable Hyperparameter Optimization
- Title(参考訳): さらなる節約のために(SM2):持続的ハイパーパラメータ最適化のための連続的Halvingのエネルギー的実装
- Authors: Daniel Geissler, Bo Zhou, Sungho Suh, Paul Lukowicz,
- Abstract要約: 我々は、広く採用されている逐次半減算アルゴリズムに基づく、エネルギーを意識したハイパーパラメータ最適化実装であるSpend More to Save More (SM2)を紹介する。
従来のアプローチとは異なり、SM2は最小のエネルギー消費で非効率な構成を特定するために探索予備訓練を採用している。
モデルの性能を最大化するだけでなく、エネルギー効率のトレーニングを可能にする最適構成を特定する。
- 参考スコア(独自算出の注目度): 4.831029473163422
- License:
- Abstract: A fundamental step in the development of machine learning models commonly involves the tuning of hyperparameters, often leading to multiple model training runs to work out the best-performing configuration. As machine learning tasks and models grow in complexity, there is an escalating need for solutions that not only improve performance but also address sustainability concerns. Existing strategies predominantly focus on maximizing the performance of the model without considering energy efficiency. To bridge this gap, in this paper, we introduce Spend More to Save More (SM2), an energy-aware hyperparameter optimization implementation based on the widely adopted successive halving algorithm. Unlike conventional approaches including energy-intensive testing of individual hyperparameter configurations, SM2 employs exploratory pretraining to identify inefficient configurations with minimal energy expenditure. Incorporating hardware characteristics and real-time energy consumption tracking, SM2 identifies an optimal configuration that not only maximizes the performance of the model but also enables energy-efficient training. Experimental validations across various datasets, models, and hardware setups confirm the efficacy of SM2 to prevent the waste of energy during the training of hyperparameter configurations.
- Abstract(参考訳): マシンラーニングモデルの開発における基本的なステップは、通常、ハイパーパラメータのチューニングが伴う。
機械学習のタスクやモデルが複雑化するにつれて、パフォーマンスの向上だけでなく、持続可能性に関する懸念にも対処するソリューションの必要性がエスカレートする。
既存の戦略は主にエネルギー効率を考慮せずにモデルの性能を最大化することに焦点を当てている。
本稿では、このギャップを埋めるために、広く採用されている逐次半減算アルゴリズムに基づくエネルギーを意識したハイパーパラメータ最適化実装であるSpend More to Save More (SM2)を紹介する。
個別のハイパーパラメータ構成のエネルギー集約的なテストを含む従来の手法とは異なり、SM2は最小のエネルギー支出で非効率な構成を特定するために探索予備訓練を採用している。
SM2は、ハードウェアの特性とリアルタイムエネルギー消費の追跡を組み込んで、モデルの性能を最大化するだけでなく、エネルギー効率のトレーニングを可能にする最適な構成を特定する。
様々なデータセット、モデル、ハードウェア構成の実験的検証により、ハイパーパラメータ構成のトレーニング中のエネルギー浪費を防ぐためのSM2の有効性が確認された。
関連論文リスト
- Investigating Energy Efficiency and Performance Trade-offs in LLM Inference Across Tasks and DVFS Settings [1.5749416770494706]
大規模言語モデル(LLM)は多くの自然言語処理(NLP)タスクにおいて大幅に改善されている。
LLMはリソース集約型であり、トレーニングと推論の両方に広範な計算資源を必要とする。
導入が加速するにつれて、LLMの持続性は重要な問題となっている。
論文 参考訳(メタデータ) (2025-01-14T16:02:33Z) - A Survey on Inference Optimization Techniques for Mixture of Experts Models [50.40325411764262]
大規模Mixture of Experts(MoE)モデルは、条件計算によるモデル容量と計算効率の向上を提供する。
これらのモデル上で推論をデプロイし実行することは、計算資源、レイテンシ、エネルギー効率において大きな課題を示す。
本調査では,システムスタック全体にわたるMoEモデルの最適化手法について分析する。
論文 参考訳(メタデータ) (2024-12-18T14:11:15Z) - Synergistic Development of Perovskite Memristors and Algorithms for Robust Analog Computing [53.77822620185878]
本稿では,ペロブスカイト・メムリスタの製作を同時に最適化し,ロバストなアナログDNNを開発するための相乗的手法を提案する。
BO誘導ノイズインジェクションを利用したトレーニング戦略であるBayesMultiを開発した。
我々の統合されたアプローチは、より深くより広いネットワークでのアナログコンピューティングの使用を可能にし、最大100倍の改善を実現します。
論文 参考訳(メタデータ) (2024-12-03T19:20:08Z) - SEER-MoE: Sparse Expert Efficiency through Regularization for Mixture-of-Experts [49.01990048827639]
本稿では,事前学習したMoEモデルのメモリフットプリントと計算要求の両方を削減するためのフレームワークSEER-MoEを紹介する。
第1段階では、ヘビーヒッターズカウントガイダンスを使用して専門家の総数を計算し、第2段階では、正則化に基づく微調整戦略を使用して精度の低下を回復する。
実験により,提案手法の有効性を実証し,精度のトレードオフを最小限に抑えた推論効率に最適化したMoEsモデルを試作した。
論文 参考訳(メタデータ) (2024-04-07T22:13:43Z) - When Parameter-efficient Tuning Meets General-purpose Vision-language
Models [65.19127815275307]
PETALは、一意のモード近似技術によって達成される全パラメータの0.5%しか必要とせず、トレーニングプロセスに革命をもたらす。
実験の結果,PETALは現状の手法をほとんどのシナリオで上回るだけでなく,完全な微調整モデルよりも優れていることがわかった。
論文 参考訳(メタデータ) (2023-12-16T17:13:08Z) - Learning Implicit Priors for Motion Optimization [105.11889448885226]
エネルギーベースモデル(EBM)は、表現力のある確率密度分布を表す。
本稿では,EMMを動作最適化に適用するために必要となるモデリングとアルゴリズムの選択について述べる。
論文 参考訳(メタデータ) (2022-04-11T19:14:54Z) - Automated Few-Shot Time Series Forecasting based on Bi-level Programming [5.760976250387322]
本稿では,バイレベルプログラミングの観点から,数発の学習パイプラインの最適設計を自動化するBiLO-Auto-TSF/MLフレームワークを開発する。
提案したBiLO-Auto-TSF/MLフレームワークの有効性を総合的に検証した。
論文 参考訳(メタデータ) (2022-03-07T12:15:14Z) - Consolidated learning -- a domain-specific model-free optimization
strategy with examples for XGBoost and MIMIC-IV [4.370097023410272]
本稿では,統合学習と呼ばれるチューニング問題の新たな定式化を提案する。
このような設定では、単一のタスクをチューニングするよりも、全体の最適化時間に関心があります。
我々は,XGBoostアルゴリズムの実証研究とMIMIC-IV医療データベースから抽出した予測タスクの収集を通じて,このアプローチの有効性を実証する。
論文 参考訳(メタデータ) (2022-01-27T21:38:53Z) - Amortized Auto-Tuning: Cost-Efficient Transfer Optimization for
Hyperparameter Recommendation [83.85021205445662]
本稿では,機械学習モデルのチューニングを高速化する自動チューニング(AT2)を提案する。
マルチタスクマルチ忠実ベイズ最適化フレームワークの徹底的な解析を行い、最適なインスタンス化-アモータイズ自動チューニング(AT2)を実現する。
論文 参考訳(メタデータ) (2021-06-17T00:01:18Z) - Multi-level Training and Bayesian Optimization for Economical
Hyperparameter Optimization [12.92634461859467]
本稿では,ハイパーパラメータ最適化に必要なトレーニング時間の総量を削減するための効果的な手法を開発する。
光のトレーニングによって生じる近似的な性能測定をキャリブレーションするために, トランキャット付加法ガウス過程モデルを提案する。
このモデルに基づいて、逐次モデルに基づくアルゴリズムが開発され、構成空間のパフォーマンスプロファイルを生成し、最適なモデルを見つける。
論文 参考訳(メタデータ) (2020-07-20T09:03:02Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。