論文の概要: UrbanAI 2025 Challenge: Linear vs Transformer Models for Long-Horizon Exogenous Temperature Forecasting
- arxiv url: http://arxiv.org/abs/2512.10866v1
- Date: Thu, 11 Dec 2025 17:59:44 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-12-12 16:15:42.496738
- Title: UrbanAI 2025 Challenge: Linear vs Transformer Models for Long-Horizon Exogenous Temperature Forecasting
- Title(参考訳): UrbanAI 2025 Challenge: Linear vs Transformer Models for Long-Horizon Exogenous Temperature Forecasting
- Authors: Ruslan Gokhman,
- Abstract要約: 線形モデルとトランスフォーマーモデルを用いて, 長軸のみの温度予測について検討した。
その結果、線形ベースラインは、より複雑なトランスフォーマーファミリーアーキテクチャよりも一貫して優れていた。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: We study long-horizon exogenous-only temperature forecasting - a challenging univariate setting where only the past values of the indoor temperature are used for prediction - using linear and Transformer-family models. We evaluate Linear, NLinear, DLinear, Transformer, Informer, and Autoformer under standardized train, validation, and test splits. Results show that linear baselines (Linear, NLinear, DLinear) consistently outperform more complex Transformer-family architectures, with DLinear achieving the best overall accuracy across all splits. These findings highlight that carefully designed linear models remain strong baselines for time series forecasting in challenging exogenous-only settings.
- Abstract(参考訳): 線形モデルとトランスフォーマーモデルを用いて, 室内温度の過去の値のみを予測に使用する, 難解な単変量環境について検討した。
リニア、NLinear、DLinear、Transformer、Informer、Autoformerを標準化された列車、検証、テストスプリットで評価する。
その結果、線形ベースライン(Linear, NLinear, DLinear)はトランスフォーマー・ファミリー・アーキテクチャよりも一貫して優れており、DLinearは全分割で最高の全体的な精度を達成している。
これらの結果から, 線形モデルの設計は, 時系列予測において, 厳密なベースラインを保ちながら外因性のみに挑戦することが示唆された。
関連論文リスト
- Bridging Simplicity and Sophistication using GLinear: A Novel Architecture for Enhanced Time Series Prediction [1.52551943336894]
Time Series Forecasting (TSF)は多くの分野において重要なアプリケーションです。
最近の研究では、より単純な線形モデルは、TSFタスクの複雑なTransformerベースのモデルに比べて、性能が優れているか、少なくとも競合する可能性があることが示唆されている。
論文 参考訳(メタデータ) (2025-01-02T06:19:53Z) - Parallelizing Linear Transformers with the Delta Rule over Sequence Length [49.88826673324244]
この研究は、デルタ則で線形変圧器を訓練するためのハードウェア効率の良いアルゴリズムについて述べる。
我々は100Bトークンに対して1.3Bモデルをトレーニングし、最近の線形時間ベースラインよりも優れていることを発見した。
論文 参考訳(メタデータ) (2024-06-10T17:24:42Z) - Your Transformer is Secretly Linear [7.935853865895353]
連続層間の埋め込み変換を解析し, ほぼ完全な線形関係を明らかにする。
変換器の最も線形なブロックのいくつかを除去あるいは線形に近似することは、損失やモデル性能に大きな影響を与えないことを示す。
より小さなモデルに対する事前学習実験では, 層状リニアリティの低減を目的としたコサイン類似性に基づく正則化を導入する。
論文 参考訳(メタデータ) (2024-05-19T22:44:00Z) - Linearizing Large Language Models [26.94551511277412]
本稿では,既存の大規模事前学習型トランスフォーマーを,控えめな計算予算でリカレントニューラルネットワーク(RNN)にアップトレーニングする方法を提案する。
線形化手法は標準ベンチマーク上での競合性能につながるが,最大線形モデルにおいても,永続的な文脈内学習と長期コンテキストモデリングの欠点を同定する。
論文 参考訳(メタデータ) (2024-05-10T17:59:08Z) - Mixture-of-Linear-Experts for Long-term Time Series Forecasting [13.818468255379969]
線形中心モデルに対するMixture-of-Expertsスタイルの拡張を提案する。
単一のモデルをトレーニングする代わりに、MoLEは複数の線形中心モデルとルータモデルを訓練する。
論文 参考訳(メタデータ) (2023-12-11T19:05:02Z) - Test-Time Adaptation Induces Stronger Accuracy and Agreement-on-the-Line [65.14099135546594]
最近のテスト時間適応 (TTA) 法は, モデルに非常に弱い相関関係を示すシフトであっても, ACL と AGL の傾向を大幅に強化する。
この結果から,TTAとAGLに基づく推定手法を組み合わせることで,より広い分布シフトの集合に対する高精度なモデルOOD性能を推定できることが示唆された。
論文 参考訳(メタデータ) (2023-10-07T23:21:25Z) - Tangent Transformers for Composition, Privacy and Removal [58.280295030852194]
TAFT(Tangent Attention Fine-Tuning)は、線形変換器の微調整方法である。
TAFT(Tangent Attention Fine-Tuning)は、線形変換器の微調整方法である。
論文 参考訳(メタデータ) (2023-07-16T18:31:25Z) - Online Evolutionary Neural Architecture Search for Multivariate
Non-Stationary Time Series Forecasting [72.89994745876086]
本研究は、オンラインニューロ進化に基づくニューラルアーキテクチャサーチ(ONE-NAS)アルゴリズムを提案する。
ONE-NASは、オンライン予測タスクのためにリカレントニューラルネットワーク(RNN)を自動設計し、動的にトレーニングする新しいニューラルネットワーク探索手法である。
その結果、ONE-NASは従来の統計時系列予測法よりも優れていた。
論文 参考訳(メタデータ) (2023-02-20T22:25:47Z) - Are Transformers Effective for Time Series Forecasting? [13.268196448051308]
近年、時系列予測(TSF)タスクのためのTransformerベースのソリューションが急増している。
本研究は,Transformer-based techniqueが長期時系列予測に適した解であるかどうかを考察する。
変換器をベースとした解の長期予測精度が比較的高いことは,変換器アーキテクチャの時間的関係抽出能力とはほとんど関係がないことがわかった。
論文 参考訳(メタデータ) (2022-05-26T17:17:08Z) - Churn Reduction via Distillation [54.5952282395487]
本研究は, 基礎モデルを教師として用いた蒸留によるトレーニングと, 予測的チャーンに対する明示的な制約によるトレーニングとの等価性を示す。
次に, 蒸留が近年の多くのベースラインに対する低チャーン訓練に有効であることを示す。
論文 参考訳(メタデータ) (2021-06-04T18:03:31Z) - LQF: Linear Quadratic Fine-Tuning [114.3840147070712]
本稿では,非線形微調整に匹敵する性能を実現する事前学習モデルの線形化手法を提案する。
LQFはアーキテクチャの単純な変更、損失関数、そして一般的に分類に使用される最適化で構成されている。
論文 参考訳(メタデータ) (2020-12-21T06:40:20Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。