論文の概要: A Dual Large Language Models Architecture with Herald Guided Prompts for Parallel Fine Grained Traffic Signal Control
- arxiv url: http://arxiv.org/abs/2511.00136v1
- Date: Fri, 31 Oct 2025 14:05:08 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-11-05 16:37:26.638529
- Title: A Dual Large Language Models Architecture with Herald Guided Prompts for Parallel Fine Grained Traffic Signal Control
- Title(参考訳): 並列微粒化信号制御のためのHerald Guided Promptsを用いた二言語モデルアーキテクチャ
- Authors: Qing Guo, Xinhang Li, Junyu Chen, Zheng Guo, Xiaocong Li, Lin Zhang, Lei Li,
- Abstract要約: 交通信号制御(TSC)における大規模言語モデル(LLM)の活用は、従来の強化学習(RL)手法と比較して最適化効率と解釈性を向上させる。
本稿では,Herald誘導プロンプトによって拡張されたデュアルLLMアーキテクチャであるHeraldLightを提案する。
Herald Moduleはコンテキスト情報を抽出し、リアルタイム条件に基づいて各トラフィックフェーズの待ち時間を予測する。
- 参考スコア(独自算出の注目度): 24.064183543476076
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Leveraging large language models (LLMs) in traffic signal control (TSC) improves optimization efficiency and interpretability compared to traditional reinforcement learning (RL) methods. However, existing LLM-based approaches are limited by fixed time signal durations and are prone to hallucination errors, while RL methods lack robustness in signal timing decisions and suffer from poor generalization. To address these challenges, this paper proposes HeraldLight, a dual LLMs architecture enhanced by Herald guided prompts. The Herald Module extracts contextual information and forecasts queue lengths for each traffic phase based on real-time conditions. The first LLM, LLM-Agent, uses these forecasts to make fine grained traffic signal control, while the second LLM, LLM-Critic, refines LLM-Agent's outputs, correcting errors and hallucinations. These refined outputs are used for score-based fine-tuning to improve accuracy and robustness. Simulation experiments using CityFlow on real world datasets covering 224 intersections in Jinan (12), Hangzhou (16), and New York (196) demonstrate that HeraldLight outperforms state of the art baselines, achieving a 20.03% reduction in average travel time across all scenarios and a 10.74% reduction in average queue length on the Jinan and Hangzhou scenarios. The source code is available on GitHub: https://github.com/BUPT-ANTlab/HeraldLight.
- Abstract(参考訳): 交通信号制御(TSC)における大規模言語モデル(LLM)の活用は、従来の強化学習(RL)手法と比較して最適化効率と解釈性を向上させる。
しかし、既存のLSMベースのアプローチは、固定時間信号の持続時間によって制限され、幻覚誤差が生じる傾向にあり、一方、RL法は信号タイミング決定の堅牢性に欠け、一般化の低さに悩まされている。
これらの課題に対処するために,Herald誘導プロンプトによって強化されたデュアルLLMアーキテクチャであるHeraldLightを提案する。
Herald Moduleはコンテキスト情報を抽出し、リアルタイム条件に基づいて各トラフィックフェーズの待ち時間を予測する。
第1のLSM-Agentはこれらの予測を用いて交通信号の微粒化制御を行い、第2のLMM-CriticはLSM-Agentの出力を洗練し、誤りと幻覚を補正する。
これらの洗練された出力は、精度と堅牢性を改善するためにスコアベースの微調整に使用される。
実世界の224の交差するジナン(12)、杭州(16)、ニューヨーク(196)でのCityFlowを用いたシミュレーション実験では、HeraldLightは最先端のベースラインよりも優れており、すべてのシナリオにおける平均走行時間を20.03%削減し、JinanとHangzhouのシナリオにおける平均待ち時間の長さを10.74%削減している。
ソースコードはGitHubで入手できる: https://github.com/BUPT-ANTlab/HeraldLight。
関連論文リスト
- Enhancing LLM-based Autonomous Driving with Modular Traffic Light and Sign Recognition [15.4994260281059]
大規模言語モデル(LLM)は、自律運転における意思決定と計画にますます利用されている。
LLMをベースとした自律走行エージェントを明示的な信号と信号認識で拡張するモジュール冗長層であるTLS-Assistを導入する。
LMDriveを14%,BEVDriverを7%,運転性能を14%向上させた。
論文 参考訳(メタデータ) (2025-11-18T11:52:52Z) - ScaleRTL: Scaling LLMs with Reasoning Data and Test-Time Compute for Accurate RTL Code Generation [4.965247405975508]
高品質な推論データとテスト時間計算の両方をスケールアップする RTL 符号化のための最初の推論 LLM である ScaleRTL を紹介する。
具体的には、56Kトークンを平均化して、RTLの豊富な知識をキャプチャする3.5Bトークンのデータセットを生成する。
このコーパス上で汎用推論モデルを微調整すると、深いRTL推論が可能なScaleRTLが得られる。
論文 参考訳(メタデータ) (2025-06-05T20:24:58Z) - HCRMP: A LLM-Hinted Contextual Reinforcement Learning Framework for Autonomous Driving [4.340881027724334]
強化学習(RL)を備えた大規模言語モデル(LLM)は、複雑なシナリオにおける自律運転(AD)のパフォーマンスを向上させることができる。
現状のLCMは、本質的な運転関連タスクで評価された場合、約57.95%の非幻覚率を示す。
本稿では,LLMとRLの相対的な独立性を維持することが幻覚問題の解決に不可欠であると主張している。
論文 参考訳(メタデータ) (2025-05-21T17:47:24Z) - Dynamic Low-Rank Sparse Adaptation for Large Language Models [54.1231638555233]
Low-rank Sparse Adaptation (LoSA)は、低ランク適応をsparse LLM sparsityにシームレスに統合する新しい手法である。
LoSAは、微調整中に対応するスパース重みに基づいてLoRA結果を動的に分散する。
LoSAは、追加の推論負荷を伴わずに、スパースLSMの有効性を数時間で効果的に向上させることができる。
論文 参考訳(メタデータ) (2025-02-20T18:37:32Z) - LLM2: Let Large Language Models Harness System 2 Reasoning [65.89293674479907]
大規模言語モデル(LLM)は、無数のタスクにまたがって印象的な機能を示してきたが、時には望ましくない出力が得られる。
本稿では LLM とプロセスベースの検証器を組み合わせた新しいフレームワーク LLM2 を紹介する。
LLMs2は妥当な候補を生成するのに責任を持ち、検証者は望ましい出力と望ましくない出力を区別するためにタイムリーなプロセスベースのフィードバックを提供する。
論文 参考訳(メタデータ) (2024-12-29T06:32:36Z) - Length Controlled Generation for Black-box LLMs [70.57649832433451]
大規模言語モデル (LLM) は印象的な命令に従う能力を示しているが、生成したテキストの長さを正確に管理することは困難である。
本稿では,Metropolis-Hastingsアルゴリズムと重要なサンプリング高速化戦略を組み合わせた,テキスト長制御のための新しい反復サンプリングフレームワークを提案する。
このフレームワークは,Llama3.1における長さ制御の抽象的要約などのタスクに対して,ほぼ100%の成功率を達成する。
論文 参考訳(メタデータ) (2024-12-19T09:07:38Z) - Strada-LLM: Graph LLM for traffic prediction [62.2015839597764]
交通予測における大きな課題は、非常に異なる交通条件によって引き起こされる多様なデータ分散を扱うことである。
近位交通情報を考慮した交通予測のためのグラフ対応LLMを提案する。
我々は、新しいデータ分散に直面する際に、ドメイン適応を効率的にするための軽量なアプローチを採用する。
論文 参考訳(メタデータ) (2024-10-28T09:19:29Z) - BiLLM: Pushing the Limit of Post-Training Quantization for LLMs [53.31402059062365]
BiLLMは、事前訓練された大規模言語モデルに適した1ビット後のトレーニング後の量子化スキームである。
LLaMA2-70Bの8.41パープレキシティは、様々なLLMファミリーで1.08ビットの重みしか持たない。
論文 参考訳(メタデータ) (2024-02-06T09:26:34Z) - LLMLight: Large Language Models as Traffic Signal Control Agents [25.438040499152745]
交通信号制御(TSC)は都市交通管理において重要な要素であり、道路網の効率を最適化し渋滞を軽減することを目的としている。
本稿では,大規模言語モデル (LLM) を用いた新しいフレームワーク LLMLight について述べる。
論文 参考訳(メタデータ) (2023-12-26T13:17:06Z) - LLMRefine: Pinpointing and Refining Large Language Models via Fine-Grained Actionable Feedback [65.84061725174269]
最近の大規模言語モデル(LLM)は、世代品質を改善するために人間のフィードバックを活用している。
LLMの出力を最適化する推論時間最適化手法であるLLMRefineを提案する。
機械翻訳、長文質問応答(QA)、話題要約を含む3つのテキスト生成タスクについて実験を行った。
LLMRefineは、すべてのベースラインアプローチを一貫して上回り、翻訳タスクの1.7 MetricXポイント、ASQAの8.1 ROUGE-L、トピックの要約の2.2 ROUGE-Lの改善を実現している。
論文 参考訳(メタデータ) (2023-11-15T19:52:11Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。