論文の概要: UrbanAI 2025 Challenge: Linear vs Transformer Models for Long-Horizon Exogenous Temperature Forecasting
- arxiv url: http://arxiv.org/abs/2512.10866v1
- Date: Thu, 11 Dec 2025 17:59:44 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-12-12 16:15:42.496738
- Title: UrbanAI 2025 Challenge: Linear vs Transformer Models for Long-Horizon Exogenous Temperature Forecasting
- Title(参考訳): UrbanAI 2025 Challenge: Linear vs Transformer Models for Long-Horizon Exogenous Temperature Forecasting
- Authors: Ruslan Gokhman,
- Abstract要約: 線形モデルとトランスフォーマーモデルを用いて, 長軸のみの温度予測について検討した。
その結果、線形ベースラインは、より複雑なトランスフォーマーファミリーアーキテクチャよりも一貫して優れていた。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: We study long-horizon exogenous-only temperature forecasting - a challenging univariate setting where only the past values of the indoor temperature are used for prediction - using linear and Transformer-family models. We evaluate Linear, NLinear, DLinear, Transformer, Informer, and Autoformer under standardized train, validation, and test splits. Results show that linear baselines (Linear, NLinear, DLinear) consistently outperform more complex Transformer-family architectures, with DLinear achieving the best overall accuracy across all splits. These findings highlight that carefully designed linear models remain strong baselines for time series forecasting in challenging exogenous-only settings.
- Abstract(参考訳): 線形モデルとトランスフォーマーモデルを用いて, 室内温度の過去の値のみを予測に使用する, 難解な単変量環境について検討した。
リニア、NLinear、DLinear、Transformer、Informer、Autoformerを標準化された列車、検証、テストスプリットで評価する。
その結果、線形ベースライン(Linear, NLinear, DLinear)はトランスフォーマー・ファミリー・アーキテクチャよりも一貫して優れており、DLinearは全分割で最高の全体的な精度を達成している。
これらの結果から, 線形モデルの設計は, 時系列予測において, 厳密なベースラインを保ちながら外因性のみに挑戦することが示唆された。
関連論文リスト
- Bridging Simplicity and Sophistication using GLinear: A Novel Architecture for Enhanced Time Series Prediction [1.52551943336894]
Time Series Forecasting (TSF)は多くの分野において重要なアプリケーションです。
最近の研究では、より単純な線形モデルは、TSFタスクの複雑なTransformerベースのモデルに比べて、性能が優れているか、少なくとも競合する可能性があることが示唆されている。
論文 参考訳(メタデータ) (2025-01-02T06:19:53Z) - Parallelizing Linear Transformers with the Delta Rule over Sequence Length [49.88826673324244]
この研究は、デルタ則で線形変圧器を訓練するためのハードウェア効率の良いアルゴリズムについて述べる。
我々は100Bトークンに対して1.3Bモデルをトレーニングし、最近の線形時間ベースラインよりも優れていることを発見した。
論文 参考訳(メタデータ) (2024-06-10T17:24:42Z) - Mixture-of-Linear-Experts for Long-term Time Series Forecasting [13.818468255379969]
線形中心モデルに対するMixture-of-Expertsスタイルの拡張を提案する。
単一のモデルをトレーニングする代わりに、MoLEは複数の線形中心モデルとルータモデルを訓練する。
論文 参考訳(メタデータ) (2023-12-11T19:05:02Z) - Tangent Transformers for Composition, Privacy and Removal [58.280295030852194]
TAFT(Tangent Attention Fine-Tuning)は、線形変換器の微調整方法である。
TAFT(Tangent Attention Fine-Tuning)は、線形変換器の微調整方法である。
論文 参考訳(メタデータ) (2023-07-16T18:31:25Z) - LQF: Linear Quadratic Fine-Tuning [114.3840147070712]
本稿では,非線形微調整に匹敵する性能を実現する事前学習モデルの線形化手法を提案する。
LQFはアーキテクチャの単純な変更、損失関数、そして一般的に分類に使用される最適化で構成されている。
論文 参考訳(メタデータ) (2020-12-21T06:40:20Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。