論文の概要: When Mining Electric Locomotives Meet Reinforcement Learning
- arxiv url: http://arxiv.org/abs/2311.08153v1
- Date: Tue, 14 Nov 2023 13:29:01 GMT
- ステータス: 処理完了
- システム内更新日: 2023-11-15 14:00:53.156357
- Title: When Mining Electric Locomotives Meet Reinforcement Learning
- Title(参考訳): 電気機関車のマイニングと強化学習
- Authors: Ying Li, Zhencai Zhu, Xiaoqiang Li, Chunyu Yang and Hao Lu
- Abstract要約: 異なる複雑な鉱業環境に適応できる鉱業用電気機関車の制御方法が必要である。
本稿では,探索とエクスプロイトのバランスを改善するため,改良されたEpsilon-greedy (IEG)アルゴリズムを提案する。
シミュレーションの結果,道路上の急激な障害物が発生した場合に,前輪車後続の機関車が安全かつ迅速に応答することが確認できた。
- 参考スコア(独自算出の注目度): 12.757241771695652
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: As the most important auxiliary transportation equipment in coal mines,
mining electric locomotives are mostly operated manually at present. However,
due to the complex and ever-changing coal mine environment, electric locomotive
safety accidents occur frequently these years. A mining electric locomotive
control method that can adapt to different complex mining environments is
needed. Reinforcement Learning (RL) is concerned with how artificial agents
ought to take actions in an environment so as to maximize reward, which can
help achieve automatic control of mining electric locomotive. In this paper, we
present how to apply RL to the autonomous control of mining electric
locomotives. To achieve more precise control, we further propose an improved
epsilon-greedy (IEG) algorithm which can better balance the exploration and
exploitation. To verify the effectiveness of this method, a co-simulation
platform for autonomous control of mining electric locomotives is built which
can complete closed-loop simulation of the vehicles. The simulation results
show that this method ensures the locomotives following the front vehicle
safely and responding promptly in the event of sudden obstacles on the road
when the vehicle in complex and uncertain coal mine environments.
- Abstract(参考訳): 炭鉱における最も重要な補助輸送設備として、現在は主に手動で電気機関車が運転されている。
しかし、複雑な炭鉱環境のため、近年は電気機関車の安全事故が頻繁に発生している。
異なる複雑な鉱業環境に適応できるマイニング電気機関車制御方法が必要である。
強化学習(Reinforcement Learning, RL)は、電気機関車の自動制御の実現に寄与する報酬を最大化するために、人工エージェントが環境の中でどのように行動を起こすべきかに関するものである。
本稿では,鉱業用電気機関車の自律制御にRLを適用する方法について述べる。
さらに,より正確な制御を実現するために,探索と搾取のバランスを良くする改良エプシロン・グリーディ(ieg)アルゴリズムを提案する。
この方法の有効性を検証するために、車両のクローズドループシミュレーションを完了できる電動機関車の自律制御のための共シミュレーションプラットフォームを構築した。
本手法は, 車両が複雑で不確実な炭鉱環境下において, 道路上の突然の障害物が発生した場合に, 車両後続の機関車が安全かつ迅速に応答できることをシミュレーションにより示す。
関連論文リスト
- Scenarios Engineering driven Autonomous Transportation in Open-Pit Mines [21.359823385387937]
自走式マイニングトラックのための新しいシナリオエンジニアリング(SE)手法が,オープンピット鉱山向けに提案されている。
本研究は, 露天掘り鉱業における自律走行の独特な課題に対処し, 鉱業経営における生産性, 安全性, 性能を育成するものである。
論文 参考訳(メタデータ) (2024-03-15T02:26:55Z) - Grow Your Limits: Continuous Improvement with Real-World RL for Robotic
Locomotion [66.69666636971922]
本稿では,ロボットの学習過程における探索を調節するポリシー正規化フレームワークであるAPRLを提案する。
APRLは四足歩行ロボットを、数分で完全に現実世界を歩けるように効率よく学習する。
論文 参考訳(メタデータ) (2023-10-26T17:51:46Z) - Recent Progress in Energy Management of Connected Hybrid Electric
Vehicles Using Reinforcement Learning [6.851787321368938]
電気輸送へのシフトは、化石燃料消費に関する環境問題を抑制することを目的としている。
HEVからコネクテッドハイブリッド電気自動車(CHEV)へのエネルギー管理システム(EMS)の進化は、重要なシフトを表している。
このレビューは、将来の持続可能な輸送システムに対するRLベースのソリューションのギャップを橋渡しし、課題、進歩、潜在的貢献を明らかにする。
論文 参考訳(メタデータ) (2023-08-28T14:12:52Z) - Rethinking Closed-loop Training for Autonomous Driving [82.61418945804544]
本研究は,学習エージェントの成功に対する異なるトレーニングベンチマーク設計の影響を分析した最初の実証的研究である。
複数ステップのルックアヘッドで計画を行うRLベースの駆動エージェントであるtrajectory value learning (TRAVL)を提案する。
実験の結果,TRAVLはすべてのベースラインと比較してより速く学習でき,安全な操作が可能であることがわかった。
論文 参考訳(メタデータ) (2023-06-27T17:58:39Z) - Unified Automatic Control of Vehicular Systems with Reinforcement
Learning [64.63619662693068]
本稿では,車載マイクロシミュレーションの合理化手法について述べる。
最小限の手動設計で高性能な制御戦略を発見する。
この研究は、波動緩和、交通信号、ランプ計測に類似した多くの創発的挙動を明らかにしている。
論文 参考訳(メタデータ) (2022-07-30T16:23:45Z) - Tackling Real-World Autonomous Driving using Deep Reinforcement Learning [63.3756530844707]
本研究では,加速と操舵角度を予測するニューラルネットワークを学習するモデルレスディープ強化学習プランナを提案する。
実際の自動運転車にシステムをデプロイするために、我々は小さなニューラルネットワークで表されるモジュールも開発する。
論文 参考訳(メタデータ) (2022-07-05T16:33:20Z) - Learning energy-efficient driving behaviors by imitating experts [75.12960180185105]
本稿では,コミュニケーション・センシングにおける制御戦略と現実的限界のギャップを埋める上で,模倣学習が果たす役割について考察する。
擬似学習は、車両の5%に採用されれば、局地的な観測のみを用いて、交通条件の異なるネットワークのエネルギー効率を15%向上させる政策を導出できることを示す。
論文 参考訳(メタデータ) (2022-06-28T17:08:31Z) - Risk-based implementation of COLREGs for autonomous surface vehicles
using deep reinforcement learning [1.304892050913381]
深層強化学習(DRL)は幅広い応用の可能性を示している。
本研究は,海上衝突防止国際規則(COLREG)のサブセットをDRLに基づく経路追従と障害物回避システムに組み込んだものである。
得られた自律エージェントは、訓練シナリオ、孤立した遭遇状況、実世界のシナリオのAISに基づくシミュレーションにおいて、経路追従とCOLREG準拠の衝突回避を動的に補間する。
論文 参考訳(メタデータ) (2021-11-30T21:32:59Z) - A Multi-Agent Deep Reinforcement Learning Coordination Framework for
Connected and Automated Vehicles at Merging Roadways [0.0]
接続された自動車両(CAV)は、渋滞、事故、エネルギー消費、温室効果ガスの排出に対処する可能性がある。
停止運転をなくすようにCAVを調整するためのフレームワークを提案する。
数値シミュレーションによりCAVの協調性を実証し,停止運転を排除してスムーズな交通流を実現することを示す。
論文 参考訳(メタデータ) (2021-09-23T22:26:52Z) - An Energy-Saving Snake Locomotion Gait Policy Using Deep Reinforcement
Learning [0.0]
この研究では、エネルギー効率の高い制御のための深層強化学習(DRL)を介してヘビの移動歩行政策を開発する。
角速度でパラメータ化された各関節モータに近位政策最適化(ppo)を適用し,drlエージェントは各時間ステップで標準サーペノイド曲線を学習する。
従来の制御戦略と比較して、訓練されたppoエージェントによって制御されたスネークロボットは、より速く動き、よりエネルギー効率の良い歩行を実現できる。
論文 参考訳(メタデータ) (2021-03-08T02:06:44Z) - Cautious Adaptation For Reinforcement Learning in Safety-Critical
Settings [129.80279257258098]
都市運転のような現実の安全クリティカルな目標設定における強化学習(RL)は危険である。
非安全クリティカルな「ソース」環境でエージェントが最初に訓練する「安全クリティカル適応」タスクセットを提案する。
多様な環境における事前経験がリスクを見積もるためにエージェントに装備するという直感に基づくソリューションアプローチであるCARLを提案する。
論文 参考訳(メタデータ) (2020-08-15T01:40:59Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。