論文の概要: Multi-Year Maintenance Planning for Large-Scale Infrastructure Systems: A Novel Network Deep Q-Learning Approach
- arxiv url: http://arxiv.org/abs/2507.18732v1
- Date: Thu, 24 Jul 2025 18:27:31 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-07-28 16:16:48.719737
- Title: Multi-Year Maintenance Planning for Large-Scale Infrastructure Systems: A Novel Network Deep Q-Learning Approach
- Title(参考訳): 大規模インフラシステムのマルチ年次保守計画:新しいネットワーク深層学習アプローチ
- Authors: Amir Fard, Arnold X. -X. Yuan,
- Abstract要約: 本稿では,大規模インフラネットワークにおける資産管理戦略を最適化する,新たな強化学習フレームワークを提案する。
ネットワークレベルのMarkov Decision Process(MDP)を個別の資産レベルのMDPに分解することにより、提案フレームワークは計算複雑性を低減し、学習効率を向上し、スケーラビリティを向上させる。
このフレームワークは予算配分機構を通じて年間予算の制約を直接組み込んでおり、メンテナンス計画が最適かつ費用対効果であることを保証する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Infrastructure asset management is essential for sustaining the performance of public infrastructure such as road networks, bridges, and utility networks. Traditional maintenance and rehabilitation planning methods often face scalability and computational challenges, particularly for large-scale networks with thousands of assets under budget constraints. This paper presents a novel deep reinforcement learning (DRL) framework that optimizes asset management strategies for large infrastructure networks. By decomposing the network-level Markov Decision Process (MDP) into individual asset-level MDPs while using a unified neural network architecture, the proposed framework reduces computational complexity, improves learning efficiency, and enhances scalability. The framework directly incorporates annual budget constraints through a budget allocation mechanism, ensuring maintenance plans are both optimal and cost-effective. Through a case study on a large-scale pavement network of 68,800 segments, the proposed DRL framework demonstrates significant improvements over traditional methods like Progressive Linear Programming and genetic algorithms, both in efficiency and network performance. This advancement contributes to infrastructure asset management and the broader application of reinforcement learning in complex, large-scale environments.
- Abstract(参考訳): インフラ資産管理は、道路網、橋梁、ユーティリティネットワークなどの公共インフラのパフォーマンスを維持するために不可欠である。
従来のメンテナンスとリカバリの計画手法は、特に予算制約下で数千の資産を持つ大規模ネットワークにおいて、スケーラビリティと計算上の課題に直面していることが多い。
本稿では,大規模インフラネットワークにおける資産管理戦略を最適化する新しい深層強化学習(DRL)フレームワークを提案する。
ネットワークレベルのマルコフ決定プロセス(MDP)を統合ニューラルネットワークアーキテクチャを用いて個別の資産レベルのMDPに分解することにより、提案フレームワークは計算複雑性を低減し、学習効率を向上し、スケーラビリティを向上させる。
このフレームワークは予算配分機構を通じて年間予算の制約を直接組み込んでおり、メンテナンス計画が最適かつ費用対効果であることを保証する。
68,800セグメントの大規模舗装網のケーススタディを通じて、DRLフレームワークは、効率とネットワーク性能の両方において、進歩線形プログラミングや遺伝的アルゴリズムといった従来の手法よりも大幅に改善されていることを示す。
この進歩は、インフラ資産管理と、複雑な大規模環境における強化学習の幅広い応用に寄与する。
関連論文リスト
- Hierarchical Deep Reinforcement Learning Framework for Multi-Year Asset Management Under Budget Constraints [0.0]
本稿では,多年計画に適した階層型深層強化学習手法を提案する。
提案手法では, 課題を, 高水準の予算プランナーと低水準の保守プランナーの2つの階層レベルに分割する。
マクロ予算決定を資産レベルの優先順位付けから構造的に分離し、階層的なソフトアクター・クリティカル・フレームワークに線形プログラミング・プロジェクションを統合することにより、アクション空間の指数的成長を効率的に処理し、厳密な予算順守を確保する。
論文 参考訳(メタデータ) (2025-07-25T17:42:34Z) - PLAN-TUNING: Post-Training Language Models to Learn Step-by-Step Planning for Complex Problem Solving [66.42260489147617]
大規模言語モデルから合成タスク分解を蒸留するフレームワークであるPLAN-TUNINGを紹介する。
複雑な推論を改善するために、教師付きおよび強化学習の目的を通したプランチューン細管モデル。
本分析は,計画軌道が複雑な推論能力をいかに改善するかを示す。
論文 参考訳(メタデータ) (2025-07-10T07:30:44Z) - TelePlanNet: An AI-Driven Framework for Efficient Telecom Network Planning [8.803399698762853]
基地局の選定は5Gネットワーク計画において重要な課題である。
既存のAIツールは、特定の面で効率が向上しているにもかかわらず、動的ネットワーク条件を満たすのに依然として苦労している。
基地局選択に適したAI駆動型フレームワークであるTelePlanNetを提案する。
論文 参考訳(メタデータ) (2025-05-20T02:19:10Z) - Adaptive routing protocols for determining optimal paths in AI multi-agent systems: a priority- and learning-enhanced approach [0.0]
本稿では,AIマルチエージェントネットワークに適した拡張適応ルーティングを提案する。
タスク複雑性,ユーザ要求優先度,エージェント能力,帯域幅,レイテンシ,負荷,モデル高度化,信頼性などの多面的パラメータを組み込んだ。
論文 参考訳(メタデータ) (2025-03-10T13:16:54Z) - Secure Resource Allocation via Constrained Deep Reinforcement Learning [49.15061461220109]
リソース割り当て、タスクオフロード、セキュリティ、パフォーマンスのバランスをとるフレームワークであるSARMTOを紹介します。
SARMTOは5つのベースラインアプローチを一貫して上回り、最大40%のシステムコスト削減を実現している。
これらの拡張は、複雑な分散コンピューティング環境におけるリソース管理に革命をもたらすSARMTOの可能性を強調している。
論文 参考訳(メタデータ) (2025-01-20T15:52:43Z) - Learning for Cross-Layer Resource Allocation in MEC-Aided Cell-Free Networks [71.30914500714262]
移動エッジコンピューティング(MEC)を援用したセルフリーネットワーク上でのクロスレイヤリソース割り当ては、データレートを促進するために、送信およびコンピューティングリソースを十分に活用することができる。
深層学習の観点からMEC支援セルフリーネットワークのサブキャリア配置とビームフォーミング最適化について検討した。
論文 参考訳(メタデータ) (2024-12-21T10:18:55Z) - Iterative Soft Shrinkage Learning for Efficient Image Super-Resolution [91.3781512926942]
画像超解像(SR)は、CNNからトランスフォーマーアーキテクチャへの広範なニューラルネットワーク設計を目撃している。
本研究は,市販のネットワーク設計を生かし,基礎となる計算オーバーヘッドを低減するため,超高解像度イテレーションにおけるネットワークプルーニングの可能性について検討する。
本研究では, ランダムネットワークのスパース構造を最適化し, 重要でない重みを小さめに微調整することにより, 反復型軟収縮率(ISS-P)法を提案する。
論文 参考訳(メタデータ) (2023-03-16T21:06:13Z) - RDRN: Recursively Defined Residual Network for Image Super-Resolution [58.64907136562178]
深部畳み込みニューラルネットワーク(CNN)は、単一画像超解像において顕著な性能を得た。
本稿では,注目ブロックを効率的に活用する新しいネットワークアーキテクチャを提案する。
論文 参考訳(メタデータ) (2022-11-17T11:06:29Z) - Coverage and Capacity Optimization in STAR-RISs Assisted Networks: A
Machine Learning Approach [102.00221938474344]
再構成可能なインテリジェントサーフェス (STAR-RIS) アシストネットワークを同時に送信および反射するカバレッジとキャパシティ最適化のための新しいモデルを提案する。
損失関数ベースの更新戦略はコアポイントであり、各更新時にmin-normソルバによってカバレッジとキャパシティの両方の損失関数の重みを計算することができる。
解析結果から,提案手法は固定重みに基づくMOアルゴリズムよりも優れていることがわかった。
論文 参考訳(メタデータ) (2022-04-13T13:52:22Z) - CLARA: A Constrained Reinforcement Learning Based Resource Allocation
Framework for Network Slicing [19.990451009223573]
ネットワークスライシングは,5Gおよび将来のネットワークにおける資源利用のための有望なソリューションとして提案されている。
モデルや隠れ構造を知らずにCMDP(Constrained Markov Decision Process)として問題を定式化する。
本稿では、制約付き強化LeArningに基づくリソース割当アルゴリズムであるCLARAを用いて、この問題を解決することを提案する。
論文 参考訳(メタデータ) (2021-11-16T11:54:09Z) - Weight Pruning via Adaptive Sparsity Loss [31.978830843036658]
近年、最先端のディープニューラルネットワークを圧縮する手段として、プルーニングニューラルネットワークが注目を集めている。
本稿では,ネットワークパラメータを最小限の計算オーバーヘッドで効率的に学習する頑健な学習フレームワークを提案する。
論文 参考訳(メタデータ) (2020-06-04T10:55:16Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。