論文の概要: Can Time-Series Foundation Models Perform Building Energy Management Tasks?
- arxiv url: http://arxiv.org/abs/2506.11250v1
- Date: Thu, 12 Jun 2025 19:45:10 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-06-16 17:50:49.562047
- Title: Can Time-Series Foundation Models Perform Building Energy Management Tasks?
- Title(参考訳): 時系列ファンデーションモデルは建築エネルギー管理タスクを遂行できるか?
- Authors: Ozan Baris Mulayim, Pengrui Quan, Liying Han, Xiaomin Ouyang, Dezhi Hong, Mario Bergés, Mani Srivastava,
- Abstract要約: エネルギー管理タスクを構築するには、さまざまな時系列データからの処理と学習が必要である。
既存のソリューションは、これらのタスクを実行するために、bespokeタスクとデータ固有のモデルに依存しています。
LLM(Large Language Models)の変革的な成功に触発されて、TSFM(Time-Series Foundation Models)は、これを変える可能性を秘めている。
- 参考スコア(独自算出の注目度): 5.450531952940644
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Building energy management (BEM) tasks require processing and learning from a variety of time-series data. Existing solutions rely on bespoke task- and data-specific models to perform these tasks, limiting their broader applicability. Inspired by the transformative success of Large Language Models (LLMs), Time-Series Foundation Models (TSFMs), trained on diverse datasets, have the potential to change this. Were TSFMs to achieve a level of generalizability across tasks and contexts akin to LLMs, they could fundamentally address the scalability challenges pervasive in BEM. To understand where they stand today, we evaluate TSFMs across four dimensions: (1) generalizability in zero-shot univariate forecasting, (2) forecasting with covariates for thermal behavior modeling, (3) zero-shot representation learning for classification tasks, and (4) robustness to performance metrics and varying operational conditions. Our results reveal that TSFMs exhibit \emph{limited} generalizability, performing only marginally better than statistical models on unseen datasets and modalities for univariate forecasting. Similarly, inclusion of covariates in TSFMs does not yield performance improvements, and their performance remains inferior to conventional models that utilize covariates. While TSFMs generate effective zero-shot representations for downstream classification tasks, they may remain inferior to statistical models in forecasting when statistical models perform test-time fitting. Moreover, TSFMs forecasting performance is sensitive to evaluation metrics, and they struggle in more complex building environments compared to statistical models. These findings underscore the need for targeted advancements in TSFM design, particularly their handling of covariates and incorporating context and temporal dynamics into prediction mechanisms, to develop more adaptable and scalable solutions for BEM.
- Abstract(参考訳): エネルギー管理(BEM)タスクの構築には、さまざまな時系列データからの処理と学習が必要である。
既存のソリューションは、これらのタスクを実行するために、タスクとデータ固有のモデルに依存しており、より広範な適用性を制限する。
LLM(Large Language Models)の変革的な成功に触発されたTSFM(Time-Series Foundation Models)は、さまざまなデータセットに基づいてトレーニングされ、これを変える可能性がある。
LLMに似たタスクやコンテキストをまたいだ一般化のレベルを達成するためにTSFMを使用すると、BEMで広く普及するスケーラビリティの課題を根本的に解決できる。
現在の状況を理解するため,(1)ゼロショット単変量予測における一般化可能性,(2)熱行動モデリングにおける共変量予測,(3)ゼロショット表現学習,(4)パフォーマンス指標に対する堅牢性,および様々な運用条件について,TSFMの評価を行った。
その結果,TSFMの一般化性は,未知のデータセットの統計モデルや一変量予測のモダリティよりもわずかに優れていることがわかった。
同様に、TSFMに共変量を含むと性能は向上せず、その性能は共変量を利用する従来のモデルよりも劣っている。
TSFMは下流の分類タスクに対して効果的なゼロショット表現を生成するが、統計モデルがテスト時間フィッティングを行う場合の予測では統計モデルに劣る可能性がある。
さらに、TSFMの予測性能は評価指標に敏感であり、統計モデルと比較して複雑な建築環境に苦しむ。
これらの知見は,特に共変量処理と時間的ダイナミクスを予測機構に組み込むことにより,より適応的でスケーラブルなBEMソリューションを開発することの必要性を浮き彫りにした。
関連論文リスト
- Less is More: Unlocking Specialization of Time Series Foundation Models via Structured Pruning [29.377178687865136]
時系列基礎モデル 広大なパラメータを事前訓練し、驚くべきゼロショット予測性能を達成する。
驚くべきことに、微調整後も、TSFMは、フルショットダウンストリームデータでトレーニングされた、より小さな、特殊なモデルよりも一貫してパフォーマンスを向上することはできない。
より関連性が高くコンパクトなパラメータ空間に焦点を合わせることにより、その後の微調整プロセスを正規化するための構造化プルーニング法を提案する。
論文 参考訳(メタデータ) (2025-05-29T07:33:49Z) - Model Utility Law: Evaluating LLMs beyond Performance through Mechanism Interpretable Metric [99.56567010306807]
大規模言語モデル(LLM)は、学術、産業、そして日々のアプリケーションに欠かせないものになっている。
大規模言語モデル (LLM) 時代における評価の課題の1つは一般化問題である。
従来の性能スコアを補完するメカニズムの解釈可能性向上指標であるモデル利用指数(MUI)を提案する。
論文 参考訳(メタデータ) (2025-04-10T04:09:47Z) - TS-RAG: Retrieval-Augmented Generation based Time Series Foundation Models are Stronger Zero-Shot Forecaster [14.512119661418522]
時系列予測のための検索拡張生成フレームワークTS-RAGを提案する。
具体的には、TS-RAGはトレーニング済みの時系列エンコーダを利用して、専用の知識ベースから意味的に関連するセグメントを検索する。
TS-RAG は最先端のゼロショット予測性能を達成し,既存の TSFM を6.84% まで上回った。
論文 参考訳(メタデータ) (2025-03-06T16:48:48Z) - Meta-Statistical Learning: Supervised Learning of Statistical Inference [59.463430294611626]
この研究は、大きな言語モデル(LLM)の成功を駆動するツールと原則が、分散レベルのタスクに取り組むために再利用可能であることを実証している。
本稿では,統計的推論タスクを教師付き学習問題として再構成するマルチインスタンス学習に触発されたメタ統計学習を提案する。
論文 参考訳(メタデータ) (2025-02-17T18:04:39Z) - Time Series Foundational Models: Their Role in Anomaly Detection and Prediction [0.0]
時系列基礎モデル (TSFM) は時系列予測において注目されている。
本稿では,異常検出および予測タスクにおけるTSFMの有効性を批判的に評価する。
論文 参考訳(メタデータ) (2024-12-26T17:15:30Z) - Task-Distributionally Robust Data-Free Meta-Learning [99.56612787882334]
Data-Free Meta-Learning (DFML)は、複数の事前学習モデルを活用することで、独自のトレーニングデータを必要とせずに、新しいタスクを効率的に学習することを目的としている。
TDS(Task-Distribution Shift)とTDC(Task-Distribution Corruption)の2つの大きな課題を初めて明らかにした。
論文 参考訳(メタデータ) (2023-11-23T15:46:54Z) - Model-Agnostic Multitask Fine-tuning for Few-shot Vision-Language
Transfer Learning [59.38343286807997]
未知タスクの視覚言語モデルのためのモデル非依存型マルチタスクファインチューニング(MAMF)を提案する。
モデルに依存しないメタラーニング(MAML)と比較して、MAMFは二段階最適化を捨て、一階勾配のみを使用する。
MAMFは5つのベンチマークデータセット上で、数ショットの転送学習において古典的な微調整法よりも一貫して優れていることを示す。
論文 参考訳(メタデータ) (2022-03-09T17:26:53Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。