論文の概要: TempoNet: Slack-Quantized Transformer-Guided Reinforcement Scheduler for Adaptive Deadline-Centric Real-Time Dispatchs
- arxiv url: http://arxiv.org/abs/2602.18109v1
- Date: Fri, 20 Feb 2026 09:56:23 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-02-23 18:01:41.290531
- Title: TempoNet: Slack-Quantized Transformer-Guided Reinforcement Scheduler for Adaptive Deadline-Centric Real-Time Dispatchs
- Title(参考訳): TempoNet: 適応型デッドライン中心リアルタイムディスパッチのためのSlackベースのトランスフォーマーガイド型強化スケジューリング
- Authors: Rong Fu, Yibo Meng, Guangzhen Yao, Jiaxuan Lu, Zeyu Zhang, Zhaolu Kang, Ziming Guo, Jia Yee Tan, Xiaojing Du, Simon James Fong,
- Abstract要約: TempoNetは、置換不変トランスフォーマーと深いQ近似を組み合わせた強化学習スケジューラである。
ブロックワイズのトップk選択と局所性に敏感なチャンキングを備えた遅延対応スパースアテンションスタックは、順序のないタスクセットに対するグローバルな推論を可能にする。
- 参考スコア(独自算出の注目度): 8.818252253980985
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Real-time schedulers must reason about tight deadlines under strict compute budgets. We present TempoNet, a reinforcement learning scheduler that pairs a permutation-invariant Transformer with a deep Q-approximation. An Urgency Tokenizer discretizes temporal slack into learnable embeddings, stabilizing value learning and capturing deadline proximity. A latency-aware sparse attention stack with blockwise top-k selection and locality-sensitive chunking enables global reasoning over unordered task sets with near-linear scaling and sub-millisecond inference. A multicore mapping layer converts contextualized Q-scores into processor assignments through masked-greedy selection or differentiable matching. Extensive evaluations on industrial mixed-criticality traces and large multiprocessor settings show consistent gains in deadline fulfillment over analytic schedulers and neural baselines, together with improved optimization stability. Diagnostics include sensitivity analyses for slack quantization, attention-driven policy interpretation, hardware-in-the-loop and kernel micro-benchmarks, and robustness under stress with simple runtime mitigations; we also report sample-efficiency benefits from behavioral-cloning pretraining and compatibility with an actor-critic variant without altering the inference pipeline. These results establish a practical framework for Transformer-based decision making in high-throughput real-time scheduling.
- Abstract(参考訳): リアルタイムスケジューラは厳格な計算予算の下で厳密な期限について考える必要があります。
本稿では、置換不変変換器と深いQ近似を組み合わせた強化学習スケジューラであるTempoNetを提案する。
Urgency Tokenizerは、時間スラックを学習可能な埋め込みに識別し、価値学習を安定化し、デッドライン近接をキャプチャする。
ブロックワイズのトップk選択と局所性に敏感なチャンキングを備えた遅延対応スパースアテンションスタックは、ほぼ線形スケーリングとサブミリ秒の推論を備えた未順序タスクセットに対するグローバルな推論を可能にする。
マルチコアマッピング層は、コンテキスト化されたQスコアをマスキンググレーディ選択または微分可能なマッチングによりプロセッサ割り当てに変換する。
産業用混合臨界トレースと大規模マルチプロセッサ設定の広範囲な評価は、分析スケジューラや神経ベースラインよりも納期満足度が一貫した向上を示し、最適化安定性が向上した。
診断には、スラック量子化の感度分析、アテンション駆動型ポリシー解釈、ハードウェア・イン・ザ・ループとカーネルのマイクロベンチマーク、単純なランタイム緩和によるストレス下での堅牢性、および推論パイプラインを変更することなくアクター・クリティカルな変種との適合性によるサンプル効率の利点を報告している。
これらの結果は,高スループットリアルタイムスケジューリングにおけるトランスフォーマーに基づく意思決定の実践的枠組みを確立する。
関連論文リスト
- Gated Differentiable Working Memory for Long-Context Language Modeling [80.27483324685434]
本稿では,Gdwm(Gated Differentiable Working Memory)を提案する。
ZeroSCROLLS と LongBench v2 の実験では、Gdwm は均一なベースラインよりも 4$times$ の勾配ステップで同等または優れたパフォーマンスを達成している。
論文 参考訳(メタデータ) (2026-01-19T10:00:33Z) - Topology-Aware Block Coordinate Descent for Qubit Frequency Calibration of Superconducting Quantum Processors [9.256953420444077]
プリエグゼクティオン校正は、量子プロセッサを操作する上で大きなボトルネックとなる。
Snake SequenceはBlock Coordinate Descent(BCD)と等価であることを示す。
これらの結果は、NISQ-eraプロセッサ上での周波数キャリブレーションのためのスケーラブルで実装可能なワークフローを提供する。
論文 参考訳(メタデータ) (2026-01-15T09:09:36Z) - Accelerate Speculative Decoding with Sparse Computation in Verification [49.74839681322316]
投機的復号化は、複数のドラフトトークンを並列に検証することにより、自動回帰言語モデル推論を加速する。
既存のスペーシフィケーション方式は主にトークン・バイ・トーケンの自己回帰復号化のために設計されている。
そこで本研究では,注目度,FFN,MoEを両立させるスパース検証フレームワークを提案する。
論文 参考訳(メタデータ) (2025-12-26T07:53:41Z) - TS-DP: Reinforcement Speculative Decoding For Temporal Adaptive Diffusion Policy Acceleration [64.32072516882947]
拡散ポリシーは、具体的制御が優れているが、高い推論遅延と計算コストに悩まされている。
時間認識強化に基づく投機的拡散政策(TS-DP)を提案する。
TS-DPは94%以上のドラフトで最大4.17倍高速な推論を実現し、推論周波数は25Hzに達した。
論文 参考訳(メタデータ) (2025-12-13T07:53:14Z) - Training-free Context-adaptive Attention for Efficient Long Context Modeling [57.703159205740185]
トレーニングフリーコンテキスト適応注意(TCA-Attention)は、学習不要なスパースアテンション機構であり、効率的な長文推論のための情報トークンのみに選択的に参画する。
TCA-Attentionは2.8$times$のスピードアップを実現し、128Kのコンテキスト長でKVキャッシュを61%削減し、フルアテンションに匹敵するパフォーマンスを維持している。
論文 参考訳(メタデータ) (2025-12-10T01:54:57Z) - Generative Sequential Notification Optimization via Multi-Objective Decision Transformers [9.542285455613927]
本稿では,政策学習をリターン条件付き教師あり学習として再編成する決定変換器ベースのフレームワークを提案する。
コントリビューションには、CQLと実世界の比較、非エポゾディックなタスクに適したマルチリワード設計、リターン・ツー・ゴ・ゴ・コンディショニングのための量子回帰アプローチなどが含まれます。
論文 参考訳(メタデータ) (2025-09-02T16:09:02Z) - Provable In-Context Learning of Nonlinear Regression with Transformers [66.99048542127768]
In-context Learning (ICL) は、パラメータを更新することなくタスク固有のプロンプトを使用して見えないタスクを実行する能力である。
最近の研究はICLの背後にあるトレーニングのダイナミクスを積極的に探求しており、その多くは比較的単純なタスクに重点を置いている。
本稿では、変換器が文脈内学習能力をいかに獲得するかを明らかにすることを目的として、より複雑な非線形回帰タスクについて検討する。
論文 参考訳(メタデータ) (2025-07-28T00:09:28Z) - TTT: A Temporal Refinement Heuristic for Tenuously Tractable Discrete Time Reachability Problems [8.696305200911455]
複雑な制御系に対する到達可能性解析は、しばしば遅すぎるか過度に保守的である。
本稿では, 時間的改善という概念を紹介し, 到達可能性問題の地平線に沿って自動的に選択し, 遅いシンボリッククエリを実行する。
提案アルゴリズムは,20~70%の時間で,ベースラインに類似した誤差で近似到達可能な集合を生成することができることを示す。
論文 参考訳(メタデータ) (2024-07-19T15:16:25Z) - Better than the Best: Gradient-based Improper Reinforcement Learning for
Network Scheduling [60.48359567964899]
パケット遅延を最小限に抑えるため,制約付き待ち行列ネットワークにおけるスケジューリングの問題を考える。
我々は、利用可能な原子ポリシーよりも優れたスケジューラを生成するポリシー勾配に基づく強化学習アルゴリズムを使用する。
論文 参考訳(メタデータ) (2021-05-01T10:18:34Z) - Controllable Time-Delay Transformer for Real-Time Punctuation Prediction
and Disfluency Detection [10.265607222257263]
本稿では,リアルタイムに句読影予測および拡散検出タスクを共同で完了する制御可能な時間遅延変換器(CT-Transformer)モデルを提案する。
提案手法は,従来のFスコアモデルよりも優れ,競合する推論速度を実現する。
論文 参考訳(メタデータ) (2020-03-03T03:17:29Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。