論文の概要: Simulating multi-exit evacuation using deep reinforcement learning
- arxiv url: http://arxiv.org/abs/2007.05783v1
- Date: Sat, 11 Jul 2020 14:27:02 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-11 13:07:42.385710
- Title: Simulating multi-exit evacuation using deep reinforcement learning
- Title(参考訳): 深層強化学習を用いたマルチエクイット避難シミュレーション
- Authors: Dong Xu, Xiao Huang, Joseph Mango, Xiang Li, Zhenlong Li
- Abstract要約: 深層強化学習(DRL)に基づく多出口避難シミュレーションを提案する。
我々は,従来の2つの避難シミュレーションモデルとMultiExit-DRLを比較した。
その結果,MultiExit-DRLは,全設計実験において,避難枠の総数を削減しつつ,学習効率が高いことがわかった。
- 参考スコア(独自算出の注目度): 25.821951155531238
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Conventional simulations on multi-exit indoor evacuation focus primarily on
how to determine a reasonable exit based on numerous factors in a changing
environment. Results commonly include some congested and other under-utilized
exits, especially with massive pedestrians. We propose a multi-exit evacuation
simulation based on Deep Reinforcement Learning (DRL), referred to as the
MultiExit-DRL, which involves in a Deep Neural Network (DNN) framework to
facilitate state-to-action mapping. The DNN framework applies Rainbow Deep
Q-Network (DQN), a DRL algorithm that integrates several advanced DQN methods,
to improve data utilization and algorithm stability, and further divides the
action space into eight isometric directions for possible pedestrian choices.
We compare MultiExit-DRL with two conventional multi-exit evacuation simulation
models in three separate scenarios: 1) varying pedestrian distribution ratios,
2) varying exit width ratios, and 3) varying open schedules for an exit. The
results show that MultiExit-DRL presents great learning efficiency while
reducing the total number of evacuation frames in all designed experiments. In
addition, the integration of DRL allows pedestrians to explore other potential
exits and helps determine optimal directions, leading to the high efficiency of
exit utilization.
- Abstract(参考訳): 屋内避難における従来のシミュレーションは, 変化環境における多数の要因に基づいて, 合理的出口を決定する方法に重点を置いている。
一般的には渋滞や未利用の出口、特に大規模な歩行者を含む。
本稿では,DNN(Deep Neural Network)フレームワークを応用し,状態と動作のマッピングを容易にするマルチエクスジット・DRL(MultiExit-DRL)と呼ばれる,深層強化学習に基づくマルチエクジット避難シミュレーションを提案する。
DNNフレームワークは、いくつかの先進的なDQNメソッドを統合するDRLアルゴリズムであるRainbow Deep Q-Network (DQN)を適用し、データ利用とアルゴリズムの安定性を改善し、さらにアクション空間を8つの等尺方向に分割して歩行者選択を可能にする。
従来の2つの避難シミュレーションモデルとMultiExit-DRLを3つのシナリオで比較する。
1)歩行者分布比の変化
2)出口幅比の変化,及び
3)出口のオープンスケジュールの変更。
その結果,MultiExit-DRLは,全設計実験において,避難枠の総数を削減しつつ,学習効率が高いことがわかった。
さらに、DRLの統合により、歩行者は他の潜在的な出口を探索することができ、最適な方向を決定するのに役立つ。
関連論文リスト
- Dynamic Spectrum Access for Ambient Backscatter Communication-assisted D2D Systems with Quantum Reinforcement Learning [68.63990729719369]
無線スペクトルは乏しくなり、D2D通信のスペクトル効率は低い。
本稿では, 周囲RF信号の後方散乱を可能にするために, 環境後方散乱通信技術をD2Dデバイスに統合することを目的とする。
我々は、より少ないトレーニングパラメータでより高速な収束率を達成することができる新しい量子強化学習(RL)アルゴリズムを開発した。
論文 参考訳(メタデータ) (2024-10-23T15:36:43Z) - Compressing Deep Reinforcement Learning Networks with a Dynamic
Structured Pruning Method for Autonomous Driving [63.155562267383864]
深部強化学習(DRL)は複雑な自律運転シナリオにおいて顕著な成功を収めている。
DRLモデルは、必然的に高いメモリ消費と計算をもたらし、リソース限定の自動運転デバイスへの広範な展開を妨げる。
そこで本研究では,DRLモデルの非重要なニューロンを段階的に除去する,新しい動的構造化プルーニング手法を提案する。
論文 参考訳(メタデータ) (2024-02-07T09:00:30Z) - Active search and coverage using point-cloud reinforcement learning [50.741409008225766]
本稿では,目的探索とカバレッジのためのエンドツーエンドの深層強化学習ソリューションを提案する。
RLの深い階層的特徴学習は有効であり、FPS(Fastthest Point sample)を用いることで点数を削減できることを示す。
また、ポイントクラウドに対するマルチヘッドの注意がエージェントの学習を高速化する上で有効であるが、同じ結果に収束することを示す。
論文 参考訳(メタデータ) (2023-12-18T18:16:30Z) - Action-Quantized Offline Reinforcement Learning for Robotic Skill
Learning [68.16998247593209]
オフライン強化学習(RL)パラダイムは、静的な行動データセットを、データを収集したポリシーよりも優れたパフォーマンスのポリシーに変換するためのレシピを提供する。
本稿では,アクション量子化のための適応型スキームを提案する。
IQL,CQL,BRACといった最先端のオフラインRL手法が,提案手法と組み合わせることで,ベンチマークのパフォーマンスが向上することを示す。
論文 参考訳(メタデータ) (2023-10-18T06:07:10Z) - Enhancing Secrecy in UAV RSMA Networks: Deep Unfolding Meets Deep Reinforcement Learning [0.8287206589886881]
我々は、複数の無人航空機(UAV)速度軌道(SMAR)における秘密のネットワークを考える。
提案した深部強化学習(DRL)は,他のDRL法よりも優れた性能を示した。
論文 参考訳(メタデータ) (2023-09-30T12:26:24Z) - Multi-UAV Speed Control with Collision Avoidance and Handover-aware Cell
Association: DRL with Action Branching [13.84737967579164]
本稿では,複数UAVセルアソシエーション決定とその移動速度を3次元高速で最適化する手法を提案する。
本稿では,共有決定モジュールと複数のネットワーク分岐を持つニューラルアーキテクチャを提案する。
シミュレーションの結果、既存のベンチマークと比べて18.32%の大幅な改善が見られた。
論文 参考訳(メタデータ) (2023-07-24T22:52:02Z) - Train a Real-world Local Path Planner in One Hour via Partially
Decoupled Reinforcement Learning and Vectorized Diversity [8.068886870457561]
深層強化学習(DRL)は局所経路計画(LPP)問題の解決に有効である。
実世界におけるそのような応用は、DRLの訓練効率と一般化能力の不足により、非常に制限されている。
アクター・シャーラーラーナー(ASL)トレーニングフレームワークと移動ロボット指向シミュレータSparrowで構成されたColorというソリューションが提案されている。
論文 参考訳(メタデータ) (2023-05-07T03:39:31Z) - TD3 with Reverse KL Regularizer for Offline Reinforcement Learning from
Mixed Datasets [118.22975463000928]
エージェントが複数の行動ポリシーをロールアウトすることで収集したデータセットから学習する必要があるオフライン強化学習(RL)について考察する。
1) RL信号の最適化と行動クローニング(BC)信号の最適なトレードオフは、異なる行動ポリシーによって引き起こされる行動カバレッジの変化によって異なる状態に変化する。
本稿では,TD3アルゴリズムに基づくBC正規化器として,適応重み付き逆KL(Kulback-Leibler)分散を用いることにより,両課題に対処する。
論文 参考訳(メタデータ) (2022-12-05T09:36:23Z) - Parallel Multi-Graph Convolution Network For Metro Passenger Volume
Prediction [8.536743588315696]
本稿では,並列多グラフ畳み込みと双方向一方向Gated Recurrent Unit(PB-GRU)を重畳した深層学習モデルを提案する。
地下鉄の乗客の流れを実世界の2つのデータセットで分析した結果,モデルの有効性が示された。
論文 参考訳(メタデータ) (2021-08-29T13:07:18Z) - Decentralized Deep Reinforcement Learning for Network Level Traffic
Signal Control [0.8838408191955874]
本稿では,交通信号制御における高速かつリアルタイムな性能を実現するために,完全分散型深層マルチエージェント強化学習(MARL)アルゴリズムのファミリーを提案する。
各交差点は、他の交差点ノードに対してマルコフゲームを行うエージェントとしてモデル化される。
実験結果から,S2R2Lはトレーニング過程において,IDQLやS2RLよりも高速に収束し,収束性能が向上していることがわかった。
論文 参考訳(メタデータ) (2020-07-02T06:58:27Z) - Congestion-aware Evacuation Routing using Augmented Reality Devices [96.68280427555808]
複数の目的地間でリアルタイムに個別の避難経路を生成する屋内避難のための渋滞対応ルーティングソリューションを提案する。
建物内の混雑分布をモデル化するために、ユーザエンド拡張現実(AR)デバイスから避難者の位置を集約して、オンザフライで取得した人口密度マップを用いる。
論文 参考訳(メタデータ) (2020-04-25T22:54:35Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。