論文の概要: A Dual Large Language Models Architecture with Herald Guided Prompts for Parallel Fine Grained Traffic Signal Control
- arxiv url: http://arxiv.org/abs/2511.00136v1
- Date: Fri, 31 Oct 2025 14:05:08 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-11-05 16:37:26.638529
- Title: A Dual Large Language Models Architecture with Herald Guided Prompts for Parallel Fine Grained Traffic Signal Control
- Title(参考訳): 並列微粒化信号制御のためのHerald Guided Promptsを用いた二言語モデルアーキテクチャ
- Authors: Qing Guo, Xinhang Li, Junyu Chen, Zheng Guo, Xiaocong Li, Lin Zhang, Lei Li,
- Abstract要約: 交通信号制御(TSC)における大規模言語モデル(LLM)の活用は、従来の強化学習(RL)手法と比較して最適化効率と解釈性を向上させる。
本稿では,Herald誘導プロンプトによって拡張されたデュアルLLMアーキテクチャであるHeraldLightを提案する。
Herald Moduleはコンテキスト情報を抽出し、リアルタイム条件に基づいて各トラフィックフェーズの待ち時間を予測する。
- 参考スコア(独自算出の注目度): 24.064183543476076
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Leveraging large language models (LLMs) in traffic signal control (TSC) improves optimization efficiency and interpretability compared to traditional reinforcement learning (RL) methods. However, existing LLM-based approaches are limited by fixed time signal durations and are prone to hallucination errors, while RL methods lack robustness in signal timing decisions and suffer from poor generalization. To address these challenges, this paper proposes HeraldLight, a dual LLMs architecture enhanced by Herald guided prompts. The Herald Module extracts contextual information and forecasts queue lengths for each traffic phase based on real-time conditions. The first LLM, LLM-Agent, uses these forecasts to make fine grained traffic signal control, while the second LLM, LLM-Critic, refines LLM-Agent's outputs, correcting errors and hallucinations. These refined outputs are used for score-based fine-tuning to improve accuracy and robustness. Simulation experiments using CityFlow on real world datasets covering 224 intersections in Jinan (12), Hangzhou (16), and New York (196) demonstrate that HeraldLight outperforms state of the art baselines, achieving a 20.03% reduction in average travel time across all scenarios and a 10.74% reduction in average queue length on the Jinan and Hangzhou scenarios. The source code is available on GitHub: https://github.com/BUPT-ANTlab/HeraldLight.
- Abstract(参考訳): 交通信号制御(TSC)における大規模言語モデル(LLM)の活用は、従来の強化学習(RL)手法と比較して最適化効率と解釈性を向上させる。
しかし、既存のLSMベースのアプローチは、固定時間信号の持続時間によって制限され、幻覚誤差が生じる傾向にあり、一方、RL法は信号タイミング決定の堅牢性に欠け、一般化の低さに悩まされている。
これらの課題に対処するために,Herald誘導プロンプトによって強化されたデュアルLLMアーキテクチャであるHeraldLightを提案する。
Herald Moduleはコンテキスト情報を抽出し、リアルタイム条件に基づいて各トラフィックフェーズの待ち時間を予測する。
第1のLSM-Agentはこれらの予測を用いて交通信号の微粒化制御を行い、第2のLMM-CriticはLSM-Agentの出力を洗練し、誤りと幻覚を補正する。
これらの洗練された出力は、精度と堅牢性を改善するためにスコアベースの微調整に使用される。
実世界の224の交差するジナン(12)、杭州(16)、ニューヨーク(196)でのCityFlowを用いたシミュレーション実験では、HeraldLightは最先端のベースラインよりも優れており、すべてのシナリオにおける平均走行時間を20.03%削減し、JinanとHangzhouのシナリオにおける平均待ち時間の長さを10.74%削減している。
ソースコードはGitHubで入手できる: https://github.com/BUPT-ANTlab/HeraldLight。
関連論文リスト
- HCRMP: A LLM-Hinted Contextual Reinforcement Learning Framework for Autonomous Driving [4.340881027724334]
強化学習(RL)を備えた大規模言語モデル(LLM)は、複雑なシナリオにおける自律運転(AD)のパフォーマンスを向上させることができる。
現状のLCMは、本質的な運転関連タスクで評価された場合、約57.95%の非幻覚率を示す。
本稿では,LLMとRLの相対的な独立性を維持することが幻覚問題の解決に不可欠であると主張している。
論文 参考訳(メタデータ) (2025-05-21T17:47:24Z) - Strada-LLM: Graph LLM for traffic prediction [62.2015839597764]
交通予測における大きな課題は、非常に異なる交通条件によって引き起こされる多様なデータ分散を扱うことである。
近位交通情報を考慮した交通予測のためのグラフ対応LLMを提案する。
我々は、新しいデータ分散に直面する際に、ドメイン適応を効率的にするための軽量なアプローチを採用する。
論文 参考訳(メタデータ) (2024-10-28T09:19:29Z) - LLMLight: Large Language Models as Traffic Signal Control Agents [25.438040499152745]
交通信号制御(TSC)は都市交通管理において重要な要素であり、道路網の効率を最適化し渋滞を軽減することを目的としている。
本稿では,大規模言語モデル (LLM) を用いた新しいフレームワーク LLMLight について述べる。
論文 参考訳(メタデータ) (2023-12-26T13:17:06Z) - LLMRefine: Pinpointing and Refining Large Language Models via Fine-Grained Actionable Feedback [65.84061725174269]
最近の大規模言語モデル(LLM)は、世代品質を改善するために人間のフィードバックを活用している。
LLMの出力を最適化する推論時間最適化手法であるLLMRefineを提案する。
機械翻訳、長文質問応答(QA)、話題要約を含む3つのテキスト生成タスクについて実験を行った。
LLMRefineは、すべてのベースラインアプローチを一貫して上回り、翻訳タスクの1.7 MetricXポイント、ASQAの8.1 ROUGE-L、トピックの要約の2.2 ROUGE-Lの改善を実現している。
論文 参考訳(メタデータ) (2023-11-15T19:52:11Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。