論文の概要: Temporal Transfer Learning for Traffic Optimization with Coarse-grained
Advisory Autonomy
- arxiv url: http://arxiv.org/abs/2312.09436v1
- Date: Mon, 27 Nov 2023 21:18:06 GMT
- ステータス: 処理完了
- システム内更新日: 2024-01-15 14:25:46.617722
- Title: Temporal Transfer Learning for Traffic Optimization with Coarse-grained
Advisory Autonomy
- Title(参考訳): 粗粒度アドバイザリーオートノミーを用いた交通最適化のための時間伝達学習
- Authors: Jung-Hoon Cho, Sirui Li, Jeongyun Kim, Cathy Wu
- Abstract要約: 本稿では,リアルタイム運転アドバイザリをドライバーに発行するアドバイザリ自律性について考察する。
時間的伝達学習(TTL)アルゴリズムを導入し,時間的構造を体系的に活用して全タスクを抽出する。
- 参考スコア(独自算出の注目度): 5.254384872541785
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The recent development of connected and automated vehicle (CAV) technologies
has spurred investigations to optimize dense urban traffic. This paper
considers advisory autonomy, in which real-time driving advisories are issued
to drivers, thus blending the CAV and the human driver. Due to the complexity
of traffic systems, recent studies of coordinating CAVs have resorted to
leveraging deep reinforcement learning (RL). Advisory autonomy is formalized as
zero-order holds, and we consider a range of hold duration from 0.1 to 40
seconds. However, despite the similarity of the higher frequency tasks on CAVs,
a direct application of deep RL fails to be generalized to advisory autonomy
tasks. We introduce Temporal Transfer Learning (TTL) algorithms to select
source tasks, systematically leveraging the temporal structure to solve the
full range of tasks. TTL selects the most suitable source tasks to maximize the
performance of the range of tasks. We validate our algorithms on diverse
mixed-traffic scenarios, demonstrating that TTL more reliably solves the tasks
than baselines. This paper underscores the potential of coarse-grained advisory
autonomy with TTL in traffic flow optimization.
- Abstract(参考訳): 近年、コネクテッド・アンド・オートマチック・ビークル(CAV)技術が開発され、都市交通を最適化するための調査が進められている。
本稿では、リアルタイム運転アドバイザリをドライバーに発行するアドバイザリ自律性を考察し、CAVと人間ドライバーを融合させる。
交通システムの複雑さのため、最近のCAVのコーディネート研究は、深層強化学習(RL)を活用している。
諮問自治はゼロオーダー保持として形式化され、保持期間は0.1秒から40秒である。
しかし、CAV上の高頻度タスクの類似性にもかかわらず、ディープRLの直接適用はアドバイザリー自律タスクに一般化されない。
時間的伝達学習(TTL)アルゴリズムを導入し,時間的構造を体系的に活用してタスクの全範囲を解決する。
TTLは、タスク範囲のパフォーマンスを最大化するために最も適したソースタスクを選択する。
様々な混合トラフィックシナリオでアルゴリズムを検証することにより、ttlがベースラインよりも確実にタスクを解決できることを実証した。
本稿では,交通流最適化におけるTTLによる粗粒度アドバイザリ自律性の可能性を明らかにする。
関連論文リスト
- DNN Partitioning, Task Offloading, and Resource Allocation in Dynamic Vehicular Networks: A Lyapunov-Guided Diffusion-Based Reinforcement Learning Approach [49.56404236394601]
本稿では,Vehicular Edge Computingにおける共同DNNパーティショニング,タスクオフロード,リソース割り当ての問題を定式化する。
我々の目標は、時間とともにシステムの安定性を保証しながら、DNNベースのタスク完了時間を最小化することである。
拡散モデルの革新的利用を取り入れたマルチエージェント拡散に基づく深層強化学習(MAD2RL)アルゴリズムを提案する。
論文 参考訳(メタデータ) (2024-06-11T06:31:03Z) - Generalizing Cooperative Eco-driving via Multi-residual Task Learning [6.864745785996583]
MRTL(Multi-Residual Task Learning)はマルチタスク学習に基づく汎用的な学習フレームワークである。
MRTLは制御を従来の制御法と残留項によって効果的に解決される名目成分に分解する。
我々は、システム制御の手段として自律走行車を用いた混合交通における艦隊レベルの排出削減にMRTLを使用している。
論文 参考訳(メタデータ) (2024-03-07T05:25:34Z) - Multi-agent Path Finding for Cooperative Autonomous Driving [8.8305853192334]
我々は,既存のアルゴリズムを著しく上回る最適かつ完全なアルゴリズムであるオーダーベース検索をKinematics Arrival Time Scheduling (OBS-KATS) により考案した。
当社の作業は、同じようなスケールのトラフィックや、有向車線を備えたマルチロボットシナリオに直接適用可能です。
論文 参考訳(メタデータ) (2024-02-01T04:39:15Z) - Rethinking Closed-loop Training for Autonomous Driving [82.61418945804544]
本研究は,学習エージェントの成功に対する異なるトレーニングベンチマーク設計の影響を分析した最初の実証的研究である。
複数ステップのルックアヘッドで計画を行うRLベースの駆動エージェントであるtrajectory value learning (TRAVL)を提案する。
実験の結果,TRAVLはすべてのベースラインと比較してより速く学習でき,安全な操作が可能であることがわかった。
論文 参考訳(メタデータ) (2023-06-27T17:58:39Z) - MARLIN: Soft Actor-Critic based Reinforcement Learning for Congestion
Control in Real Networks [63.24965775030673]
そこで本研究では,汎用的な渋滞制御(CC)アルゴリズムを設計するための新しい強化学習(RL)手法を提案する。
我々の解であるMARLINは、Soft Actor-Criticアルゴリズムを用いてエントロピーとリターンの両方を最大化する。
我々は,MARLINを実ネットワーク上で訓練し,実ミスマッチを克服した。
論文 参考訳(メタデータ) (2023-02-02T18:27:20Z) - HARL: Hierarchical Adaptive Reinforcement Learning Based Auto Scheduler
for Neural Networks [51.71682428015139]
効率的なテンソルプログラム探索のための強化学習に基づく自動スケジューリングシステムであるHARLを提案する。
HarLは、最先端のオートスケジューラと比較して、テンソル演算子の性能を22%改善し、探索速度を4.3倍改善する。
また、エンドツーエンドのニューラルネットワークでは、推論性能と探索速度も大幅に向上する。
論文 参考訳(メタデータ) (2022-11-21T04:15:27Z) - Teal: Learning-Accelerated Optimization of WAN Traffic Engineering [68.7863363109948]
本稿では,GPUの並列処理能力を活用してTE制御を高速化する学習型TEアルゴリズムTealを提案する。
問題スケールの削減と学習のトラクタビリティ向上のために,Tealはマルチエージェント強化学習(RL)アルゴリズムを用いて,各トラフィック要求を独立に割り当てる。
他のTE加速方式と比較して、Tealは需要を6~32%増やし、197~625倍のスピードアップを達成している。
論文 参考訳(メタデータ) (2022-10-25T04:46:30Z) - Semantic-Aware Collaborative Deep Reinforcement Learning Over Wireless
Cellular Networks [82.02891936174221]
複数のエージェントが無線ネットワーク上で協調できるコラボレーティブディープ強化学習(CDRL)アルゴリズムは有望なアプローチである。
本稿では,リソース制約のある無線セルネットワーク上で,意味的にリンクされたDRLタスクを持つ未学習エージェントのグループを効率的に協調させる,新しい意味認識型CDRL手法を提案する。
論文 参考訳(メタデータ) (2021-11-23T18:24:47Z) - Integrated Decision and Control: Towards Interpretable and Efficient
Driving Intelligence [13.589285628074542]
自動走行車のための解釈可能かつ効率的な意思決定・制御フレームワークを提案する。
駆動タスクを階層的に構造化されたマルチパス計画と最適追跡に分解する。
その結果,オンライン計算の効率性や交通効率,安全性などの運転性能が向上した。
論文 参考訳(メタデータ) (2021-03-18T14:43:31Z) - Leveraging the Capabilities of Connected and Autonomous Vehicles and
Multi-Agent Reinforcement Learning to Mitigate Highway Bottleneck Congestion [2.0010674945048468]
RLをベースとしたマルチエージェントCAV制御モデルを提案する。
その結果、CAVのシェアが10%以下である場合でも、CAVはハイウェイ交通のボトルネックを著しく軽減することができることが示唆された。
論文 参考訳(メタデータ) (2020-10-12T03:52:10Z) - Multi-Vehicle Routing Problems with Soft Time Windows: A Multi-Agent
Reinforcement Learning Approach [9.717648122961483]
ソフトタイムウインドウ(MVRPSTW)を用いたマルチ車両ルーティング問題は、都市ロジスティクスシステムにおいて不可欠である。
従来の手法は計算効率と解の質のジレンマを引き起こす。
そこで本研究では,ルーティング問題の解決に要する時間的オフライントレーニングのメリットを即時評価する,Multi-Agent Attention Modelと呼ばれる新しい強化学習アルゴリズムを提案する。
論文 参考訳(メタデータ) (2020-02-13T14:26:27Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。