論文の概要: Less is More: Strategic Expert Selection Outperforms Ensemble Complexity in Traffic Forecasting
- arxiv url: http://arxiv.org/abs/2510.07426v1
- Date: Wed, 08 Oct 2025 18:24:17 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-10 17:54:14.659058
- Title: Less is More: Strategic Expert Selection Outperforms Ensemble Complexity in Traffic Forecasting
- Title(参考訳): 戦略的専門家の選択は、交通予測の複雑さを浮き彫りにする
- Authors: Walid Guettala, Yufan Zhao, László Gulyás,
- Abstract要約: 本稿では,物理道路トポロジとデータ類似性を組み合わせたSSemantic Expertを導入した時空間予測フレームワークであるTESTAM+を提案する。
包括的アブレーション研究により,戦略的専門家の選択はナイーブ・アンサンブル・アグリゲーションを根本的に上回っていることがわかった。
最適なIdentity + Adaptive構成は、METR LAのMegaCRN(2.99対3.38)の状態と比較して11.5%のMAE削減を達成する。
- 参考スコア(独自算出の注目度): 1.3272510644778106
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Traffic forecasting is fundamental to intelligent transportation systems, enabling congestion mitigation and emission reduction in increasingly complex urban environments. While recent graph neural network approaches have advanced spatial temporal modeling, existing mixture of experts frameworks like Time Enhanced Spatio Temporal Attention Model (TESTAM) lack explicit incorporation of physical road network topology, limiting their spatial capabilities. We present TESTAM+, an enhanced spatio temporal forecasting framework that introduces a novel SpatioSemantic Expert integrating physical road topology with data driven feature similarity through hybrid graph construction. TESTAM+ achieves significant improvements over TESTAM: 1.3% MAE reduction on METR LA (3.10 vs. 3.14) and 4.1% improvement on PEMS BAY (1.65 vs. 1.72). Through comprehensive ablation studies, we discover that strategic expert selection fundamentally outperforms naive ensemble aggregation. Individual experts demonstrate remarkable effectiveness: the Adaptive Expert achieves 1.63 MAE on PEMS BAY, outperforming the original three expert TESTAM (1.72 MAE), while the SpatioSemantic Expert matches this performance with identical 1.63 MAE. The optimal Identity + Adaptive configuration achieves an 11.5% MAE reduction compared to state of the art MegaCRN on METR LA (2.99 vs. 3.38), while reducing inference latency by 53.1% compared to the full four expert TESTAM+. Our findings reveal that fewer, strategically designed experts outperform complex multi expert ensembles, establishing new state of the art performance with superior computational efficiency for real time deployment.
- Abstract(参考訳): 交通予測はインテリジェント交通システムの基本であり、複雑化する都市環境における混雑緩和と排出削減を可能にしている。
最近のグラフニューラルネットワークアプローチでは、時間的時間的モデリングが進んでいるが、TESTAM(Time Enhanced Spatio Temporal Attention Model)のような既存の専門家フレームワークには、物理的な道路ネットワークトポロジが明示的に組み込まれておらず、空間的能力が制限されている。
本稿では,ハイブリッドグラフ構築による物理道路トポロジとデータ駆動特徴類似性を組み合わせた新しいスプ比セマンティックエキスパートを導入した時空間予測フレームワークであるTESTAM+を提案する。
TESTAM+は、METR LA(3.10対3.14)の1.3%のMAE削減とPEMS BAY(1.65対1.72)の4.1%の改善である。
包括的アブレーション研究により,戦略的専門家の選択はナイーブ・アンサンブル・アグリゲーションを根本的に上回っていることがわかった。
Adaptive ExpertはPEMS BAYで1.63 MAEを達成し、オリジナルの3人のエキスパートであるTESTAM (1.72 MAE)を上回り、Spatio Semantic Expertはこのパフォーマンスを1.63 MAEと一致させた。
最適なIdentity + Adaptive構成は、METR LAの最先端のMegaCRN(2.99対3.38)と比較して11.5%のMAE削減を実現している。
その結果、戦略的に設計された専門家は、より複雑なマルチエキスパートアンサンブルよりも優れており、リアルタイムデプロイメントに優れた計算効率を備えた新しい最先端のパフォーマンスを確立していることがわかった。
関連論文リスト
- TempSamp-R1: Effective Temporal Sampling with Reinforcement Fine-Tuning for Video LLMs [67.55973229034319]
本稿では,マルチモーダルな大規模言語モデル(MLLM)をビデオ時間的グラウンド処理に適応させることの有効性向上を目的とした,新しい強化微調整フレームワークであるTempSamp-R1を紹介する。
我々は、TempSamp-R1がGRPOベースのベースラインより優れており、ベンチマークデータセット上で新しい最先端のパフォーマンスを確立していることを示す。
論文 参考訳(メタデータ) (2025-09-22T17:30:15Z) - Unifying Mixture of Experts and Multi-Head Latent Attention for Efficient Language Models [1.7272658301768147]
MoE-MLA-RoPEは、Mixture of Experts (MoE)とMulti-head Latent Attention (MLA)とRotary Position Embeddings (RoPE)を組み合わせた、効率的な言語モデリングのための新しいアーキテクチャの組み合わせである。
提案手法は,3つの重要なイノベーションを通じて,モデル容量と計算効率の基本的なトレードオフに対処する。
論文 参考訳(メタデータ) (2025-08-02T08:33:30Z) - Improving Significant Wave Height Prediction Using Chronos Models [3.5791500950915567]
本研究は,波動予測に最適化された大規模言語モデル(LLM)を用いた時間的アーキテクチャ(Chronos)の最初の実装であるChronosを紹介する。
北西太平洋流域の3つの戦略的に選択された海洋域の歴史的波動データに高度時間パターン認識を適用した。
論文 参考訳(メタデータ) (2025-04-23T15:56:28Z) - HOBBIT: A Mixed Precision Expert Offloading System for Fast MoE Inference [54.40808356999408]
フレキシブルで効率的なMoE推論を実現するための混合精度専門家オフロードシステムHOBBITを提案する。
キーとなる洞察は、重要でないキャッシュミスの専門家を低い精度で動的に置き換えることで、専門家のロード遅延を大幅に削減できるということです。
HOBBITは、最先端のMoEオフロードシステムと比較して、デコードで最大9.93倍のスピードアップを達成する。
論文 参考訳(メタデータ) (2024-11-03T04:25:46Z) - ExACT: Teaching AI Agents to Explore with Reflective-MCTS and Exploratory Learning [78.42927884000673]
ExACTは、エージェントアプリケーションのためのo1のようなモデルを構築するために、テスト時間検索と自己学習を組み合わせるアプローチである。
リフレクティブモンテカルロ木探索(Reflective Monte Carlo Tree Search, R-MCTS)は、AIエージェントがその場で意思決定空間を探索する能力を高めるために設計された新しいテストタイムアルゴリズムである。
次に,探索学習(Exploratory Learning)という,外部探索アルゴリズムに頼らずに,エージェントに推論時間での探索を教える新しい学習戦略を紹介する。
論文 参考訳(メタデータ) (2024-10-02T21:42:35Z) - UniPTS: A Unified Framework for Proficient Post-Training Sparsity [67.16547529992928]
Post-Traiing Sparsity (PTS)は、必要な限られたデータで効率的なネットワークスパシティを追求する、新たに登場した道である。
本稿では,従来のスパシティの性能をPSSの文脈に大きく変化させる3つの基本因子を変換することで,この相違を解消しようとする。
我々のフレームワークはUniPTSと呼ばれ、広範囲のベンチマークで既存のPTSメソッドよりも優れていることが検証されている。
論文 参考訳(メタデータ) (2024-05-29T06:53:18Z) - Expert-Token Resonance MoE: Bidirectional Routing with Efficiency Affinity-Driven Active Selection [19.365009652356793]
エキスパート-トークン共鳴(ETR)は、専門家-トークン相互作用を再想像する理論的な双方向ルーティング機構である。
ETRは、ベースラインのMoE実装と比較して、エンドツーエンドのトレーニング効率が5.4%-46.6%向上している。
論文 参考訳(メタデータ) (2024-05-24T02:50:44Z) - Shortcut-connected Expert Parallelism for Accelerating Mixture-of-Experts [4.629608387540524]
ScMoEは、重複する並列化戦略と統合された新しいショートカット接続型MoEアーキテクチャである。
一般的なトップ2のMoEベースラインと比較して、ScMoEはトレーニングで1.49倍、推論で1.82倍のスピードアップを達成する。
論文 参考訳(メタデータ) (2024-04-07T17:17:23Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。