論文の概要: A deep reinforcement learning model for predictive maintenance planning
of road assets: Integrating LCA and LCCA
- arxiv url: http://arxiv.org/abs/2112.12589v3
- Date: Mon, 27 Nov 2023 18:29:31 GMT
- ステータス: 処理完了
- システム内更新日: 2023-11-30 18:05:00.631510
- Title: A deep reinforcement learning model for predictive maintenance planning
of road assets: Integrating LCA and LCCA
- Title(参考訳): 道路資産の予測保守計画のための深層強化学習モデル:LCCAとLCCAの統合
- Authors: Moein Latifi, Fateme Golivand Darvishvand, Omid Khandel, Mobin Latifi
Nowsoud
- Abstract要約: 本研究では,M&R実践のタイプとタイミングを決定するために,強化学習(RL)を用いたフレームワークを提案する。
その結果,道路条件が良好な条件域に留まる20年間のM&R計画が提案された。
意思決定者や交通機関は、このスキームを利用して、予算の無駄を防ぎ、環境への影響を最小限に抑える、より良いメンテナンスの実践を行うことができる。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Road maintenance planning is an integral part of road asset management. One
of the main challenges in Maintenance and Rehabilitation (M&R) practices is to
determine maintenance type and timing. This research proposes a framework using
Reinforcement Learning (RL) based on the Long Term Pavement Performance (LTPP)
database to determine the type and timing of M&R practices. A predictive DNN
model is first developed in the proposed algorithm, which serves as the
Environment for the RL algorithm. For the Policy estimation of the RL model,
both DQN and PPO models are developed. However, PPO has been selected in the
end due to better convergence and higher sample efficiency. Indicators used in
this study are International Roughness Index (IRI) and Rutting Depth (RD).
Initially, we considered Cracking Metric (CM) as the third indicator, but it
was then excluded due to the much fewer data compared to other indicators,
which resulted in lower accuracy of the results. Furthermore, in
cost-effectiveness calculation (reward), we considered both the economic and
environmental impacts of M&R treatments. Costs and environmental impacts have
been evaluated with paLATE 2.0 software. Our method is tested on a hypothetical
case study of a six-lane highway with 23 kilometers length located in Texas,
which has a warm and wet climate. The results propose a 20-year M&R plan in
which road condition remains in an excellent condition range. Because the early
state of the road is at a good level of service, there is no need for heavy
maintenance practices in the first years. Later, after heavy M&R actions, there
are several 1-2 years of no need for treatments. All of these show that the
proposed plan has a logical result. Decision-makers and transportation agencies
can use this scheme to conduct better maintenance practices that can prevent
budget waste and, at the same time, minimize the environmental impacts.
- Abstract(参考訳): 道路維持計画は道路資産管理の不可欠な部分である。
メンテナンスとリハビリテーション(M&R)のプラクティスにおける大きな課題のひとつは、メンテナンスのタイプとタイミングを決定することです。
本研究では,Long Term Pavement Performance (LTPP)データベースに基づく強化学習(RL)を用いて,M&R実践のタイプとタイミングを決定するフレームワークを提案する。
予測型DNNモデルは、RLアルゴリズムの環境として機能する提案アルゴリズムで最初に開発された。
RLモデルのポリシー推定には、DQNモデルとPPOモデルの両方が開発された。
しかし、PPOは、収束性の向上と試料効率の向上により最終的に選択されている。
本研究で用いた指標は国際粗度指数(IRI)とラッティング深さ(RD)である。
当初,3番目の指標として亀裂量(CM)を検討したが,他の指標に比べてデータが少ないため除外され,結果の精度が低下した。
さらに,費用対効果計算(リワード)においては,M&R処理の経済的および環境的影響を考察した。
コストと環境への影響はpaLATE 2.0ソフトウェアで評価されている。
本手法は,暖かく湿潤な気候のテキサスに23kmの長さの6車線の高速道路を想定したケーススタディで検証した。
その結果,道路条件が良好な条件域に留まる20年間のM&R計画が提案された。
道路の初期の状態は十分なサービスレベルにあるため、最初の数年間で大規模な保守作業は不要である。
その後、重度のM&R作用の後、治療の必要のない1~2年が経過する。
これらの全ては、提案された計画に論理的な結果があることを示している。
意思決定者や交通機関は、このスキームを利用して、予算の無駄を防止し、同時に環境への影響を最小限に抑える、より良いメンテナンスの実践を行うことができる。
関連論文リスト
- Truncating Trajectories in Monte Carlo Policy Evaluation: an Adaptive Approach [51.76826149868971]
モンテカルロシミュレーションによる政策評価は多くのMC強化学習(RL)アルゴリズムの中核にある。
本研究では,異なる長さの軌跡を用いた回帰推定器の平均二乗誤差のサロゲートとして品質指標を提案する。
本稿では,Robust and Iterative Data Collection Strategy Optimization (RIDO) という適応アルゴリズムを提案する。
論文 参考訳(メタデータ) (2024-10-17T11:47:56Z) - Efficient Learning of POMDPs with Known Observation Model in Average-Reward Setting [56.92178753201331]
我々は,POMDPパラメータを信念に基づくポリシを用いて収集したサンプルから学習することのできる観測・認識スペクトル(OAS)推定手法を提案する。
提案するOAS-UCRLアルゴリズムに対して,OASプロシージャの整合性を示し,$mathcalO(sqrtT log(T)$の残差保証を証明した。
論文 参考訳(メタデータ) (2024-10-02T08:46:34Z) - A Comparative Study of Machine Learning Algorithms for Anomaly Detection
in Industrial Environments: Performance and Environmental Impact [62.997667081978825]
本研究は,環境の持続可能性を考慮した高性能機械学習モデルの要求に応えることを目的としている。
Decision TreesやRandom Forestsといった従来の機械学習アルゴリズムは、堅牢な効率性とパフォーマンスを示している。
しかし, 資源消費の累積増加にもかかわらず, 最適化された構成で優れた結果が得られた。
論文 参考訳(メタデータ) (2023-07-01T15:18:00Z) - Safe, Efficient, Comfort, and Energy-saving Automated Driving through
Roundabout Based on Deep Reinforcement Learning [3.4602940992970903]
ラウンドアバウンドでの交通シナリオは、自動化された運転に相当な複雑さをもたらす。
本研究は、ラウンドアバウンドを走行する自動運転車の運転を指示する様々なDRLアルゴリズムを探索し、採用し、実装する。
3つの試験されたDRLアルゴリズムはいずれも、自動運転車がラウンドアバウンドを走行できるようにするのに成功している。
論文 参考訳(メタデータ) (2023-06-20T11:39:55Z) - Machine learning framework for end-to-end implementation of Incident
duration prediction [0.0]
本研究では,インシデントレポートの受信時に利用可能な情報に基づいて,インシデント時間を予測するための分析フレームワークとエンドツーエンド機械学習ソリューションを開発した。
その結果, 従来の研究手法と比較して, 事故発生期間の予測は有意に改善した。
論文 参考訳(メタデータ) (2023-04-23T00:55:19Z) - Human-in-the-loop: Provably Efficient Preference-based Reinforcement
Learning with General Function Approximation [107.54516740713969]
本研究は,RL(Human-in-the-loop reinforcement learning)を軌道的嗜好で検討する。
各ステップで数値的な報酬を受ける代わりに、エージェントは人間の監督者から軌道上のペアよりも優先される。
一般関数近似を用いたPbRLの楽観的モデルベースアルゴリズムを提案する。
論文 参考訳(メタデータ) (2022-05-23T09:03:24Z) - Deep reinforcement learning for optimal well control in subsurface
systems with uncertain geology [0.0]
深部強化学習(DRL)に基づく一般制御政策枠組みを導入し, 地下流れにおける閉ループ決定について検討した。
DRLに基づく手法は、従来のモデルよりも頑健な最適化と比較して、NPVの15%(2Dの場合)と33%(3Dの場合)の増加をもたらすことが示されている。
論文 参考訳(メタデータ) (2022-03-24T22:50:47Z) - Offline Reinforcement Learning for Road Traffic Control [12.251816544079306]
モデルベースの学習フレームワークであるA-DACを構築し、データ不確実性に対処するために、悲観的なコストを組み込んだデータセットからマルコフ決定プロセス(MDP)を推論する。
A-DACは、サイズやバッチ収集ポリシーによって異なる複数のデータセットを用いて、複雑な信号化ラウンドアバウトで評価される。
論文 参考訳(メタデータ) (2022-01-07T09:55:21Z) - Solving Multistage Stochastic Linear Programming via Regularized Linear
Decision Rules: An Application to Hydrothermal Dispatch Planning [77.34726150561087]
AdaSO(Adaptive least absolute shrinkage and selection operator)に基づく線形決定規則(LDR)の新しい正規化手法を提案する。
実験により、MSLPを解くために古典的な非正規化LDRを使用する場合、過度に適合する脅威は無視できないことが示された。
LHDP問題に対しては、非正規化ベンチマークと比較して、提案したフレームワークの次の利点を強調した。
論文 参考訳(メタデータ) (2021-10-07T02:36:14Z) - Uncertainty-aware Remaining Useful Life predictor [57.74855412811814]
有効寿命 (Remaining Useful Life, RUL) とは、特定の産業資産の運用期間を推定する問題である。
本研究では,Deep Gaussian Processes (DGPs) を,前述の制限に対する解決策と捉える。
アルゴリズムの性能はNASAの航空機エンジン用N-CMAPSSデータセットで評価される。
論文 参考訳(メタデータ) (2021-04-08T08:50:44Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。