論文の概要: Less is More: Strategic Expert Selection Outperforms Ensemble Complexity in Traffic Forecasting
- arxiv url: http://arxiv.org/abs/2510.07426v1
- Date: Wed, 08 Oct 2025 18:24:17 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-10 17:54:14.659058
- Title: Less is More: Strategic Expert Selection Outperforms Ensemble Complexity in Traffic Forecasting
- Title(参考訳): 戦略的専門家の選択は、交通予測の複雑さを浮き彫りにする
- Authors: Walid Guettala, Yufan Zhao, László Gulyás,
- Abstract要約: 本稿では,物理道路トポロジとデータ類似性を組み合わせたSSemantic Expertを導入した時空間予測フレームワークであるTESTAM+を提案する。
包括的アブレーション研究により,戦略的専門家の選択はナイーブ・アンサンブル・アグリゲーションを根本的に上回っていることがわかった。
最適なIdentity + Adaptive構成は、METR LAのMegaCRN(2.99対3.38)の状態と比較して11.5%のMAE削減を達成する。
- 参考スコア(独自算出の注目度): 1.3272510644778106
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Traffic forecasting is fundamental to intelligent transportation systems, enabling congestion mitigation and emission reduction in increasingly complex urban environments. While recent graph neural network approaches have advanced spatial temporal modeling, existing mixture of experts frameworks like Time Enhanced Spatio Temporal Attention Model (TESTAM) lack explicit incorporation of physical road network topology, limiting their spatial capabilities. We present TESTAM+, an enhanced spatio temporal forecasting framework that introduces a novel SpatioSemantic Expert integrating physical road topology with data driven feature similarity through hybrid graph construction. TESTAM+ achieves significant improvements over TESTAM: 1.3% MAE reduction on METR LA (3.10 vs. 3.14) and 4.1% improvement on PEMS BAY (1.65 vs. 1.72). Through comprehensive ablation studies, we discover that strategic expert selection fundamentally outperforms naive ensemble aggregation. Individual experts demonstrate remarkable effectiveness: the Adaptive Expert achieves 1.63 MAE on PEMS BAY, outperforming the original three expert TESTAM (1.72 MAE), while the SpatioSemantic Expert matches this performance with identical 1.63 MAE. The optimal Identity + Adaptive configuration achieves an 11.5% MAE reduction compared to state of the art MegaCRN on METR LA (2.99 vs. 3.38), while reducing inference latency by 53.1% compared to the full four expert TESTAM+. Our findings reveal that fewer, strategically designed experts outperform complex multi expert ensembles, establishing new state of the art performance with superior computational efficiency for real time deployment.
- Abstract(参考訳): 交通予測はインテリジェント交通システムの基本であり、複雑化する都市環境における混雑緩和と排出削減を可能にしている。
最近のグラフニューラルネットワークアプローチでは、時間的時間的モデリングが進んでいるが、TESTAM(Time Enhanced Spatio Temporal Attention Model)のような既存の専門家フレームワークには、物理的な道路ネットワークトポロジが明示的に組み込まれておらず、空間的能力が制限されている。
本稿では,ハイブリッドグラフ構築による物理道路トポロジとデータ駆動特徴類似性を組み合わせた新しいスプ比セマンティックエキスパートを導入した時空間予測フレームワークであるTESTAM+を提案する。
TESTAM+は、METR LA(3.10対3.14)の1.3%のMAE削減とPEMS BAY(1.65対1.72)の4.1%の改善である。
包括的アブレーション研究により,戦略的専門家の選択はナイーブ・アンサンブル・アグリゲーションを根本的に上回っていることがわかった。
Adaptive ExpertはPEMS BAYで1.63 MAEを達成し、オリジナルの3人のエキスパートであるTESTAM (1.72 MAE)を上回り、Spatio Semantic Expertはこのパフォーマンスを1.63 MAEと一致させた。
最適なIdentity + Adaptive構成は、METR LAの最先端のMegaCRN(2.99対3.38)と比較して11.5%のMAE削減を実現している。
その結果、戦略的に設計された専門家は、より複雑なマルチエキスパートアンサンブルよりも優れており、リアルタイムデプロイメントに優れた計算効率を備えた新しい最先端のパフォーマンスを確立していることがわかった。
関連論文リスト
- YOLO-Master: MOE-Accelerated with Specialized Transformers for Enhanced Real-time Detection [26.013463778761317]
YOLO-Masterは、リアルタイムオブジェクト検出のためのインスタンス条件適応計算を導入する、YOLOライクな新しいフレームワークである。
我々のモデルは1.62msのレイテンシで42.4%のAPを達成し、YOLOv13-Nを+0.8% mAPで上回り、17.8%高速化した。
論文 参考訳(メタデータ) (2025-12-29T07:54:49Z) - Spatiotemporal-Untrammelled Mixture of Experts for Multi-Person Motion Prediction [53.555201955973104]
人間の動作の複雑な時間的依存関係を包括的に捉えることは、多対人動作にとって重要である。
既存の方法には2つの主要な制限がある。
従来の注意の時間に起因した計算コストが高い。
我々のモデルは4種類の時間的専門家を取り入れており、それぞれ異なる空間的・時間的依存を捉えている。
論文 参考訳(メタデータ) (2025-12-25T15:01:19Z) - Alpamayo-R1: Bridging Reasoning and Action Prediction for Generalizable Autonomous Driving in the Long Tail [85.47497935739936]
Alpamayo-R1 (AR1) は、因果推論の連鎖と軌道計画を統合する視覚言語モデルである。
また,AR1は,軌道のみのベースラインに比べて,難問の計画精度が12%向上することを示した。
今後のアップデートで、AR1モデルとCoCのサブセットをリリースする予定です。
論文 参考訳(メタデータ) (2025-10-30T01:25:34Z) - Every Attention Matters: An Efficient Hybrid Architecture for Long-Context Reasoning [73.10669391954801]
本稿では、Ring-mini-linear-2.0およびRing-flash-linear-2.0を含むRing-linearモデルシリーズについて述べる。
どちらのモデルも線形アテンションとソフトマックスアテンションを効果的に統合するハイブリッドアーキテクチャを採用している。
32億のパラメータ密度モデルと比較して、このシリーズは推論コストを1/10に削減し、元のRingシリーズと比較すると、コストも50%以上削減される。
論文 参考訳(メタデータ) (2025-10-22T07:59:38Z) - TempSamp-R1: Effective Temporal Sampling with Reinforcement Fine-Tuning for Video LLMs [67.55973229034319]
本稿では,マルチモーダルな大規模言語モデル(MLLM)をビデオ時間的グラウンド処理に適応させることの有効性向上を目的とした,新しい強化微調整フレームワークであるTempSamp-R1を紹介する。
我々は、TempSamp-R1がGRPOベースのベースラインより優れており、ベンチマークデータセット上で新しい最先端のパフォーマンスを確立していることを示す。
論文 参考訳(メタデータ) (2025-09-22T17:30:15Z) - Unifying Mixture of Experts and Multi-Head Latent Attention for Efficient Language Models [1.7272658301768147]
MoE-MLA-RoPEは、Mixture of Experts (MoE)とMulti-head Latent Attention (MLA)とRotary Position Embeddings (RoPE)を組み合わせた、効率的な言語モデリングのための新しいアーキテクチャの組み合わせである。
提案手法は,3つの重要なイノベーションを通じて,モデル容量と計算効率の基本的なトレードオフに対処する。
論文 参考訳(メタデータ) (2025-08-02T08:33:30Z) - Enhancing Spatiotemporal Networks with xLSTM: A Scalar LSTM Approach for Cellular Traffic Forecasting [0.7111641404908191]
本稿では,空間的特徴抽出のための3層Conv3Dモジュールと,より効率的なモデリングのためのグラデラーLSTMを利用する軽量なデュアルパス時空間ネットワークを提案する。
ConvLSTMベースラインよりも優れた予測性能を示し、未確認領域への強力な一般化を実現し、大規模次世代ネットワーク展開に適していることを示す。
論文 参考訳(メタデータ) (2025-07-17T22:48:46Z) - Is Architectural Complexity Overrated? Competitive and Interpretable Knowledge Graph Completion with RelatE [6.959701672059059]
RelatEは、エンティティとリレーションの二重表現を効率的に統合する、解釈可能でモジュラーな方法である。
標準ベンチマークにおいて、競争力や優れたパフォーマンスを達成する。
摂動実験では、MRRはTransEと比較して最大61%、RotatEと比較して最大19%減少し、ロバスト性が改善された。
論文 参考訳(メタデータ) (2025-05-25T04:36:52Z) - Improving Significant Wave Height Prediction Using Chronos Models [3.5791500950915567]
本研究は,波動予測に最適化された大規模言語モデル(LLM)を用いた時間的アーキテクチャ(Chronos)の最初の実装であるChronosを紹介する。
北西太平洋流域の3つの戦略的に選択された海洋域の歴史的波動データに高度時間パターン認識を適用した。
論文 参考訳(メタデータ) (2025-04-23T15:56:28Z) - HOBBIT: A Mixed Precision Expert Offloading System for Fast MoE Inference [54.40808356999408]
フレキシブルで効率的なMoE推論を実現するための混合精度専門家オフロードシステムHOBBITを提案する。
キーとなる洞察は、重要でないキャッシュミスの専門家を低い精度で動的に置き換えることで、専門家のロード遅延を大幅に削減できるということです。
HOBBITは、最先端のMoEオフロードシステムと比較して、デコードで最大9.93倍のスピードアップを達成する。
論文 参考訳(メタデータ) (2024-11-03T04:25:46Z) - ExACT: Teaching AI Agents to Explore with Reflective-MCTS and Exploratory Learning [78.42927884000673]
ExACTは、エージェントアプリケーションのためのo1のようなモデルを構築するために、テスト時間検索と自己学習を組み合わせるアプローチである。
リフレクティブモンテカルロ木探索(Reflective Monte Carlo Tree Search, R-MCTS)は、AIエージェントがその場で意思決定空間を探索する能力を高めるために設計された新しいテストタイムアルゴリズムである。
次に,探索学習(Exploratory Learning)という,外部探索アルゴリズムに頼らずに,エージェントに推論時間での探索を教える新しい学習戦略を紹介する。
論文 参考訳(メタデータ) (2024-10-02T21:42:35Z) - UniPTS: A Unified Framework for Proficient Post-Training Sparsity [67.16547529992928]
Post-Traiing Sparsity (PTS)は、必要な限られたデータで効率的なネットワークスパシティを追求する、新たに登場した道である。
本稿では,従来のスパシティの性能をPSSの文脈に大きく変化させる3つの基本因子を変換することで,この相違を解消しようとする。
我々のフレームワークはUniPTSと呼ばれ、広範囲のベンチマークで既存のPTSメソッドよりも優れていることが検証されている。
論文 参考訳(メタデータ) (2024-05-29T06:53:18Z) - Expert-Token Resonance MoE: Bidirectional Routing with Efficiency Affinity-Driven Active Selection [19.365009652356793]
エキスパート-トークン共鳴(ETR)は、専門家-トークン相互作用を再想像する理論的な双方向ルーティング機構である。
ETRは、ベースラインのMoE実装と比較して、エンドツーエンドのトレーニング効率が5.4%-46.6%向上している。
論文 参考訳(メタデータ) (2024-05-24T02:50:44Z) - Shortcut-connected Expert Parallelism for Accelerating Mixture-of-Experts [4.629608387540524]
ScMoEは、重複する並列化戦略と統合された新しいショートカット接続型MoEアーキテクチャである。
一般的なトップ2のMoEベースラインと比較して、ScMoEはトレーニングで1.49倍、推論で1.82倍のスピードアップを達成する。
論文 参考訳(メタデータ) (2024-04-07T17:17:23Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。