論文の概要: DTCCL: Disengagement-Triggered Contrastive Continual Learning for Autonomous Bus Planners
- arxiv url: http://arxiv.org/abs/2512.18988v1
- Date: Mon, 22 Dec 2025 02:59:37 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-03-23 08:17:40.45988
- Title: DTCCL: Disengagement-Triggered Contrastive Continual Learning for Autonomous Bus Planners
- Title(参考訳): DTCCL:自律バスプランナのための拡張強化コントラスト学習
- Authors: Yanding Yang, Weitao Zhou, Jinhai Wang, Xiaomin Guo, Junze Wen, Xiaolong Liu, Lang Ding, Zheng Fu, Jinyu Miao, Kun Jiang, Diange Yang,
- Abstract要約: 本稿では,自律型バスによる実運用による計画計画の改善を実現するための,拡張学習型コントラスト学習フレームワークを提案する。
都市バスの実験では、DTCCLは直接再訓練と比較して、全体の計画性能を48.6%改善している。
- 参考スコア(独自算出の注目度): 13.819705584989762
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Autonomous buses run on fixed routes but must operate in open, dynamic urban environments. Disengagement events on these routes are often geographically concentrated and typically arise from planner failures in highly interactive regions. Such policy-level failures are difficult to correct using conventional imitation learning, which easily overfits to sparse disengagement data. To address this issue, this paper presents a Disengagement-Triggered Contrastive Continual Learning (DTCCL) framework that enables autonomous buses to improve planning policies through real-world operation. Each disengagement triggers cloud-based data augmentation that generates positive and negative samples by perturbing surrounding agents while preserving route context. Contrastive learning refines policy representations to better distinguish safe and unsafe behaviors, and continual updates are applied in a cloud-edge loop without human supervision. Experiments on urban bus routes demonstrate that DTCCL improves overall planning performance by 48.6 percent compared with direct retraining, validating its effectiveness for scalable, closed-loop policy improvement in autonomous public transport.
- Abstract(参考訳): 自動バスは固定ルートで運行されるが、オープンでダイナミックな都市環境で運行する必要がある。
これらのルートでのディスエンゲージメントイベントは、しばしば地理的に集中しており、通常は高度にインタラクティブな地域でプランナーの失敗から生じる。
このような政策レベルの障害は、従来の模倣学習を用いて修正することは困難であり、解離データを疎結合に過度に扱える。
この問題に対処するため,本論文では,自律型バスによる実運用による計画方針改善を実現するためのDTCCL(Disengagement-Triggered Contrastive Continual Learning)フレームワークを提案する。
各切り離しは、ルートコンテキストを維持しながら周囲のエージェントを摂動させ、正および負のサンプルを生成するクラウドベースのデータ拡張をトリガーする。
コントラスト学習は、安全かつ安全でない振る舞いをよりよく区別するためにポリシー表現を洗練し、継続的な更新は、人間の監督なしにクラウドエッジループに適用される。
都市バス路線の実験では、DMCCLは直接再訓練と比較して全体の計画性能を48.6%改善し、自律的な公共交通機関におけるスケーラブルで閉鎖的な政策改善の有効性を検証している。
関連論文リスト
- TSC: Topology-Conditioned Stackelberg Coordination for Multi-Agent Reinforcement Learning in Interactive Driving [37.09409794849228]
トポロジ条件付きStackelberg Coordinationは、コミュニケーションフリー実行下での分散インタラクティブ運転のための学習フレームワークである。
TSCは,主要な指標をまたいだ代表的MARLベースラインよりも優れた性能を示す。
論文 参考訳(メタデータ) (2026-02-27T10:46:41Z) - RoaD: Rollouts as Demonstrations for Closed-Loop Supervised Fine-Tuning of Autonomous Driving Policies [30.632104005565832]
ロールアウト・アズ・デモレーション(RoaD)は、クローズドループにおける自律運転ポリシーのトレーニングにおいて、共変量シフトを軽減する方法である。
ロールアウト生成の間、RoaDは高品質な振る舞いに対するバイアス軌道に関する専門家のガイダンスを取り入れ、微調整のための情報的かつ現実的なデモンストレーションを生み出した。
本稿では,大規模な交通シミュレーションベンチマークであるWOSACにおけるRoaDの有効性を示す。
論文 参考訳(メタデータ) (2025-12-01T18:52:03Z) - Strategizing Equitable Transit Evacuations: A Data-Driven Reinforcement Learning Approach [5.962540020947193]
本稿では,バスによる避難を最適化するデータ駆動型強化学習フレームワークを提案する。
我々は、避難問題を強化学習によって解決されたマルコフ決定過程としてモデル化する。
提案手法は,避難効率とサービス分散の両面で,大幅な改善を実現していることを示す。
論文 参考訳(メタデータ) (2024-12-08T02:17:38Z) - GARLIC: GPT-Augmented Reinforcement Learning with Intelligent Control for Vehicle Dispatching [81.82487256783674]
GARLIC: GPT拡張強化学習のフレームワーク。
本稿では,GPT強化強化学習とインテリジェント制御のフレームワークであるGARLICについて紹介する。
論文 参考訳(メタデータ) (2024-08-19T08:23:38Z) - SAFE-SIM: Safety-Critical Closed-Loop Traffic Simulation with Diffusion-Controllable Adversaries [94.84458417662407]
制御可能なクローズドループ安全クリティカルシミュレーションフレームワークであるSAFE-SIMを紹介する。
提案手法は,1)現実の環境を深く反映した現実的な長距離安全クリティカルシナリオの生成,2)より包括的でインタラクティブな評価のための制御可能な敵行動の提供,の2つの利点をもたらす。
複数のプランナにまたがるnuScenesとnuPlanデータセットを使用して、我々のフレームワークを実証的に検証し、リアリズムと制御性の両方の改善を実証した。
論文 参考訳(メタデータ) (2023-12-31T04:14:43Z) - Carl-Lead: Lidar-based End-to-End Autonomous Driving with Contrastive
Deep Reinforcement Learning [10.040113551761792]
我々は、ライダーに基づくエンドツーエンドの運転ポリシーのトレーニングに、深層強化学習(DRL)を使用します。
本研究では、DRLを用いて、不完全な部分観察を自然に考慮するライダーベースのエンドツーエンド駆動ポリシーを訓練する。
提案手法は,最新技術(SOTA)によるエンド・ツー・エンド駆動ネットワークよりも高い成功率を達成する。
論文 参考訳(メタデータ) (2021-09-17T11:24:10Z) - Reducing Bus Bunching with Asynchronous Multi-Agent Reinforcement
Learning [11.168121941015013]
バスフラッキングは、バスサービスの信頼性と効率を損なう一般的な現象である。
経路レベルのバスフリート制御を非同期マルチエージェント強化学習問題として定式化する。
古典的なアクタークリティカルアーキテクチャを拡張して、非同期問題を扱う。
論文 参考訳(メタデータ) (2021-05-02T02:08:07Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。