論文の概要: Prepared for the Unknown: Adapting AIOps Capacity Forecasting Models to Data Changes
- arxiv url: http://arxiv.org/abs/2510.10320v1
- Date: Sat, 11 Oct 2025 19:21:20 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-14 18:06:29.887272
- Title: Prepared for the Unknown: Adapting AIOps Capacity Forecasting Models to Data Changes
- Title(参考訳): AIOpsのキャパシティ予測モデルにデータ変更を適用する
- Authors: Lorena Poenaru-Olaru, Wouter van 't Hof, Adrian Stando, Arkadiusz P. Trawinski, Eileen Kapel, Jan S. Rellermeyer, Luis Cruz, Arie van Deursen,
- Abstract要約: 能力管理は、ソフトウェア組織がリソースを効果的に割り当て、運用上の要求を満たすために重要である。
データ駆動分析と機械学習(ML)予測モデルは、データが進化するにつれて関連性を維持するために頻繁にトレーニングする必要がある。
本研究では,周期的再学習と比較して検出されたデータの変化に基づいて,時系列に対する再学習能力予測モデルの効果について検討する。
- 参考スコア(独自算出の注目度): 10.364609328524994
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Capacity management is critical for software organizations to allocate resources effectively and meet operational demands. An important step in capacity management is predicting future resource needs often relies on data-driven analytics and machine learning (ML) forecasting models, which require frequent retraining to stay relevant as data evolves. Continuously retraining the forecasting models can be expensive and difficult to scale, posing a challenge for engineering teams tasked with balancing accuracy and efficiency. Retraining only when the data changes appears to be a more computationally efficient alternative, but its impact on accuracy requires further investigation. In this work, we investigate the effects of retraining capacity forecasting models for time series based on detected changes in the data compared to periodic retraining. Our results show that drift-based retraining achieves comparable forecasting accuracy to periodic retraining in most cases, making it a cost-effective strategy. However, in cases where data is changing rapidly, periodic retraining is still preferred to maximize the forecasting accuracy. These findings offer actionable insights for software teams to enhance forecasting systems, reducing retraining overhead while maintaining robust performance.
- Abstract(参考訳): 能力管理は、ソフトウェア組織がリソースを効果的に割り当て、運用上の要求を満たすために重要である。
キャパシティ管理における重要なステップは、データ駆動分析と機械学習(ML)予測モデルに頼って、将来的なリソースニーズを予測することだ。
予測モデルを継続的に再トレーニングすることは費用がかかり、スケールが難しく、正確性と効率性のバランスをとるエンジニアリングチームにとって課題となる。
データ変更がより計算的に効率的であるように見える場合にのみリトレーニングを行うが、その精度への影響はさらなる調査を必要とする。
本研究では,周期的再学習と比較して検出されたデータの変化に基づいて,時系列に対する再学習能力予測モデルの効果について検討する。
以上の結果から,ドリフトに基づくリトレーニングは,ほとんどの場合において周期的リトレーニングに匹敵する予測精度を達成し,コスト効率のよい戦略であることが示唆された。
しかし、データが急速に変化している場合には、予測精度を最大化するために定期的な再訓練が望ましい。
これらの発見は、ソフトウェアチームが予測システムを強化し、堅牢なパフォーマンスを維持しながら、トレーニングのオーバーヘッドを減らすための実用的な洞察を提供する。
関連論文リスト
- On the retraining frequency of global forecasting models [0.0]
計算コストを削減しつつ予測精度を保ちつつ,再訓練戦略の頻度を低くすることを示す。
また、機械学習モデルは、頻度の低いモデル再トレーニング戦略と組み合わせることで、予測のコストを削減するために、はるかに良い選択であることもわかりました。
論文 参考訳(メタデータ) (2025-05-01T07:00:29Z) - What Do Learning Dynamics Reveal About Generalization in LLM Reasoning? [83.83230167222852]
モデルの一般化動作は,事前記憶列車の精度と呼ばれるトレーニング指標によって効果的に特徴づけられることがわかった。
モデルの学習行動と一般化を結びつけることで、トレーニング戦略に目標とする改善を導くことができる。
論文 参考訳(メタデータ) (2024-11-12T09:52:40Z) - ReAugment: Model Zoo-Guided RL for Few-Shot Time Series Augmentation and Forecasting [74.00765474305288]
本稿では,時系列データ拡張のための強化学習(RL)の試験的検討を行う。
我々の手法であるReAugmentは、トレーニングセットのどの部分が拡張されるべきか、どのように拡張を行うべきか、RLがプロセスにどのような利点をもたらすのか、という3つの重要な問題に取り組む。
論文 参考訳(メタデータ) (2024-09-10T07:34:19Z) - Forecast-PEFT: Parameter-Efficient Fine-Tuning for Pre-trained Motion Forecasting Models [68.23649978697027]
Forecast-PEFTは、モデルのパラメータの大部分を凍結し、新しく導入されたプロンプトとアダプタの調整に集中する微調整戦略である。
実験の結果,Forecast-PEFTは動作予測タスクにおいて従来のフルチューニング手法よりも優れていた。
Forecast-FTは予測性能をさらに改善し、従来のベースライン法よりも最大9.6%向上した。
論文 参考訳(メタデータ) (2024-07-28T19:18:59Z) - Impact of data for forecasting on performance of model predictive control in buildings with smart energy storage [0.0]
モデルデータ効率を改善するための尺度の予測精度への影響を定量化する。
負荷予測モデルに2年以上のトレーニングデータを使用することで,予測精度が大幅に向上することはなかった。
再使用したモデルと3ヶ月のデータでトレーニングされたモデルでは、ベースラインよりも平均10%高いエラーがあった。
論文 参考訳(メタデータ) (2024-02-19T21:01:11Z) - EsaCL: Efficient Continual Learning of Sparse Models [10.227171407348326]
連続的な学習設定の主な課題は、以前に学習したタスクを実行する方法を忘れずに、タスクのシーケンスを効率的に学習することである。
本研究では,モデルの予測力に悪影響を及ぼすことなく,冗長なパラメータを自動生成する,スパースモデル(EsaCL)の効率的な連続学習法を提案する。
論文 参考訳(メタデータ) (2024-01-11T04:59:44Z) - Self-Supervised Pretraining Improves Self-Supervised Pretraining [83.1423204498361]
自己教師付き事前トレーニングには、高価で長い計算と大量のデータが必要で、データ拡張に敏感である。
本稿では,既存の事前学習モデルを用いて事前学習プロセスを初期化することにより,収束時間を短縮し,精度を向上させる階層的事前学習(HPT)について検討する。
HPTが最大80倍速く収束し、タスク全体の精度が向上し、自己監視された事前トレーニングプロセスの堅牢性が、画像増強ポリシーまたは事前トレーニングデータの量の変化に改善されることを示します。
論文 参考訳(メタデータ) (2021-03-23T17:37:51Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。