論文の概要: Fremer: Lightweight and Effective Frequency Transformer for Workload Forecasting in Cloud Services
- arxiv url: http://arxiv.org/abs/2507.12908v1
- Date: Thu, 17 Jul 2025 08:51:28 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-07-18 20:10:24.416584
- Title: Fremer: Lightweight and Effective Frequency Transformer for Workload Forecasting in Cloud Services
- Title(参考訳): Fremer: クラウドサービスのワークロード予測のための軽量で効果的な周波数変換器
- Authors: Jiadong Chen, Hengyu Ye, Fuxin Jiang, Xiao He, Tieying Zhang, Jianjun Chen, Xiaofeng Gao,
- Abstract要約: 本稿では,効率的かつ効果的な深層予測モデルであるFremerを提案する。
Fremerは3つの重要な要件を満たす: 優れた効率を示し、ほとんどのTransformerベースの予測モデルを上回る。
作業負荷予測において、すべての最先端(SOTA)モデルを上回る、例外的な精度を実現している。
- 参考スコア(独自算出の注目度): 9.687789919349523
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Workload forecasting is pivotal in cloud service applications, such as auto-scaling and scheduling, with profound implications for operational efficiency. Although Transformer-based forecasting models have demonstrated remarkable success in general tasks, their computational efficiency often falls short of the stringent requirements in large-scale cloud environments. Given that most workload series exhibit complicated periodic patterns, addressing these challenges in the frequency domain offers substantial advantages. To this end, we propose Fremer, an efficient and effective deep forecasting model. Fremer fulfills three critical requirements: it demonstrates superior efficiency, outperforming most Transformer-based forecasting models; it achieves exceptional accuracy, surpassing all state-of-the-art (SOTA) models in workload forecasting; and it exhibits robust performance for multi-period series. Furthermore, we collect and open-source four high-quality, open-source workload datasets derived from ByteDance's cloud services, encompassing workload data from thousands of computing instances. Extensive experiments on both our proprietary datasets and public benchmarks demonstrate that Fremer consistently outperforms baseline models, achieving average improvements of 5.5% in MSE, 4.7% in MAE, and 8.6% in SMAPE over SOTA models, while simultaneously reducing parameter scale and computational costs. Additionally, in a proactive auto-scaling test based on Kubernetes, Fremer improves average latency by 18.78% and reduces resource consumption by 2.35%, underscoring its practical efficacy in real-world applications.
- Abstract(参考訳): ワークロード予測は、自動スケーリングやスケジューリングといったクラウドサービスアプリケーションにおいて重要なものであり、運用効率に大きな影響を与えます。
トランスフォーマーベースの予測モデルは、一般的なタスクにおいて顕著な成功を収めてきたが、その計算効率は、大規模なクラウド環境における厳密な要求に満たないことが多い。
ほとんどのワークロードシリーズは複雑な周期パターンを示すので、周波数領域におけるこれらの課題に対処することは大きな利点がある。
そこで本研究では,効率的かつ効果的な深層予測モデルであるFremerを提案する。
Fremerは、優れた効率を示し、ほとんどのTransformerベースの予測モデルより優れていること、ワークロード予測におけるすべての最先端(SOTA)モデルよりも高い精度で達成できること、マルチ周期シリーズの堅牢なパフォーマンスを示すこと、の3つの重要な要件を満たす。
さらに、ByteDanceのクラウドサービスから派生した、高品質でオープンソースの4つのワークロードデータセットを収集し、オープンソース化しています。
プロプライエタリなデータセットと公開ベンチマークの両方において、Fremerが一貫してベースラインモデルを上回っており、パラメータスケールと計算コストを同時に削減しつつ、MSEの5.5%、MAEの4.7%、SOTAモデルのSMAPEの8.6%の平均的な改善を実現している。
さらに、Kubernetesベースのアクティブ自動スケーリングテストでは、Fremerは平均レイテンシを18.78%改善し、リソース消費量を2.35%削減した。
関連論文リスト
- Output Scaling: YingLong-Delayed Chain of Thought in a Large Pretrained Time Series Forecasting Model [55.25659103706409]
このフレームワークは,設計した基盤モデルであるYingLongの最先端性能を実現する。
YingLongは、マスク付きトークンリカバリによってトレーニングされた非因果的双方向アテンションエンコーダのみのトランスフォーマーである。
我々は、6Mから3Mパラメータの4つの基礎モデルをリリースし、ゼロショットタスクにおいて優れた結果を示す。
論文 参考訳(メタデータ) (2025-05-20T14:31:06Z) - EfficientLLM: Efficiency in Large Language Models [64.3537131208038]
大規模言語モデル(LLM)は大きな進歩を導いてきたが、その増加とコンテキストウィンドウは計算、エネルギー、金銭的コストを禁止している。
本稿では,新しいベンチマークであるEfficientLLMを紹介する。
論文 参考訳(メタデータ) (2025-05-20T02:27:08Z) - Bayesian Optimization of a Lightweight and Accurate Neural Network for Aerodynamic Performance Prediction [0.0]
本研究では,空力性能予測のための効率的かつ正確な予測モデルを構築するための新しい手法を提案する。
設計変数間の相互作用を明確に記述するために、BOの定式化では階層カーネルと分類カーネルが使用される。
ドラッグ係数予測タスクでは,最適化モデルの平均絶対パーセンテージ誤差(MAPE)が0.1433%から0.0163%に低下する。
本モデルでは, ベンチマーク航空機の自己雑音予測問題に対して, 0.82%のMAPEを達成し, 既存モデルよりも大幅に優れていた。
論文 参考訳(メタデータ) (2025-03-25T09:14:36Z) - Gridded Transformer Neural Processes for Large Unstructured Spatio-Temporal Data [47.14384085714576]
本稿では,非構造化観測を行うための格子状擬似トークンPと,効率的な注意機構を利用する格子状擬似トークンを含むプロセッサを紹介する。
提案手法は,大規模データを含む様々な合成および実世界の回帰タスクにおいて,強いベースラインを一貫して上回る。
実生活実験は気象データに基づいて行われ、気象モデルパイプラインで大規模に適用した場合の性能と計算上の利点をもたらすアプローチの可能性を示す。
論文 参考訳(メタデータ) (2024-10-09T10:00:56Z) - An Augmentation-based Model Re-adaptation Framework for Robust Image Segmentation [0.799543372823325]
セグメント化モデルの一般化を促進するための拡張型モデル再適応フレームワーク(AMRF)を提案する。
従来のモデル(FCNとU-Net)と事前訓練されたSAMモデルからセグメント化マスクを観察することにより、トレーニング効率とモデル性能を最適にバランスさせる最小拡張セットを決定する。
その結果,細調整したFCNは収穫精度が3.29%,収穫精度が3.02%,時間連続データセットが5.27%,分類精度が4.04%を超えることがわかった。
論文 参考訳(メタデータ) (2024-09-14T21:01:49Z) - Forecast-PEFT: Parameter-Efficient Fine-Tuning for Pre-trained Motion Forecasting Models [68.23649978697027]
Forecast-PEFTは、モデルのパラメータの大部分を凍結し、新しく導入されたプロンプトとアダプタの調整に集中する微調整戦略である。
実験の結果,Forecast-PEFTは動作予測タスクにおいて従来のフルチューニング手法よりも優れていた。
Forecast-FTは予測性能をさらに改善し、従来のベースライン法よりも最大9.6%向上した。
論文 参考訳(メタデータ) (2024-07-28T19:18:59Z) - Crafting Efficient Fine-Tuning Strategies for Large Language Models [2.633490094119608]
200サンプル未満の細調整された大型言語モデル(LLM)は、製品属性抽出タスクにおいて、モデル精度を70%から88%に向上させることができる。
トレーニング時間全体の20%のモデルを評価するベイズハイパーパラメータ最適化法は,最終的なモデル性能と強く相関する。
このアプローチにより、独立したテストセットで評価すると、ベースラインモデルよりも精度が2%向上した。
論文 参考訳(メタデータ) (2024-07-18T21:36:00Z) - Transformer Multivariate Forecasting: Less is More? [42.558736426375056]
本稿では,実行効率を最適化しながら予測精度を高めるために冗長な情報を削減することに焦点を当てる。
このフレームワークは、5つの最先端(SOTA)モデルと4つの多様な実世界のデータセットによって評価される。
PCA+Crossformer(PCA+Crossformer)は平均平方誤差(MSE)を33.3%減らし、平均で49.2%減らす。
論文 参考訳(メタデータ) (2023-12-30T13:44:23Z) - PePNet: A Periodicity-Perceived Workload Prediction Network Supporting Rare Occurrence of Heavy Workload [11.93843096959306]
クラウドサーバのワークロードは非常に可変的であり、時には重いワークロードがバーストする。
ワークロード予測には統計手法とニューラルネットベースの方法の2つのカテゴリがある。
本稿では,特に負荷予測の精度を向上させるため,PePNetを提案する。
論文 参考訳(メタデータ) (2023-07-11T07:56:27Z) - Quaternion Factorization Machines: A Lightweight Solution to Intricate
Feature Interaction Modelling [76.89779231460193]
factorization machine(fm)は、機能間の高次インタラクションを自動的に学習し、手動の機能エンジニアリングを必要とせずに予測を行うことができる。
本研究では,スパース予測解析のためのQFM(Quaternion factorization Machine)とQNFM(Quaternion neural factorization Machine)を提案する。
論文 参考訳(メタデータ) (2021-04-05T00:02:36Z) - Highly Efficient Salient Object Detection with 100K Parameters [137.74898755102387]
そこで我々は,段階内および複数ステージのマルチスケール機能を効率的に活用するために,フレキシブルな畳み込みモジュールであるOctoConv(gOctConv)を提案する。
我々は、非常に軽量なモデル、すなわちCSNetを構築し、一般的なオブジェクト検出ベンチマークで、約0.2%(100k)の大規模モデルで同等のパフォーマンスを達成する。
論文 参考訳(メタデータ) (2020-03-12T07:00:46Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。