論文の概要: Distributional Reinforcement Learning for Condition-Based Maintenance of Multi-Pump Equipment
- arxiv url: http://arxiv.org/abs/2602.00051v1
- Date: Mon, 19 Jan 2026 15:33:04 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-02-09 02:03:42.272177
- Title: Distributional Reinforcement Learning for Condition-Based Maintenance of Multi-Pump Equipment
- Title(参考訳): マルチポンプ機器の条件ベースメンテナンスのための分散強化学習
- Authors: Takato Yasuno,
- Abstract要約: コンディションベースメンテナンス(CBM)は、現代の産業システムにおいて、反応性からプロアクティブな機器管理戦略へのパラダイムシフトを意味する。
本稿では,老化要因を組み込んだQR-DQN(Quantile Regression Deep Q-Networks)を用いた多機能CBMのための分散強化学習手法を提案する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Condition-Based Maintenance (CBM) signifies a paradigm shift from reactive to proactive equipment management strategies in modern industrial systems. Conventional time-based maintenance schedules frequently engender superfluous expenditures and unanticipated equipment failures. In contrast, CBM utilizes real-time equipment condition data to enhance maintenance timing and optimize resource allocation. The present paper proposes a novel distributional reinforcement learning approach for multi-equipment CBM using Quantile Regression Deep Q-Networks (QR-DQN) with aging factor integration. The methodology employed in this study encompasses the concurrent administration of multiple pump units through three strategic scenarios. The implementation of safety-first, balanced, and cost-efficient approaches is imperative. Comprehensive experimental validation over 3,000 training episodes demonstrates significant performance improvements across all strategies. The Safety-First strategy demonstrates superior cost efficiency, with a return on investment (ROI) of 3.91, yielding 152\% better performance than alternatives while requiring only 31\% higher investment. The system exhibits 95.66\% operational stability and immediate applicability to industrial environments.
- Abstract(参考訳): コンディションベースメンテナンス(CBM)は、現代の産業システムにおいて、反応性からプロアクティブな機器管理戦略へのパラダイムシフトを意味する。
従来の時間ベースのメンテナンススケジュールは、しばしば過剰な支出と予期せぬ設備の故障を発生させる。
対照的に、CBMはリアルタイムの機器条件データを利用して、メンテナンスのタイミングを高め、リソース割り当てを最適化する。
本稿では,老化要因を組み込んだQR-DQN(Quantile Regression Deep Q-Networks)を用いた多機能CBMのための分散強化学習手法を提案する。
本研究は,3つの戦略的シナリオを通じて,複数のポンプユニットを同時に管理する手法である。
安全優先、均衡、コスト効率のアプローチの実装は必須である。
3,000のトレーニングエピソードに対する総合的な実験的検証は、すべての戦略において、大幅なパフォーマンス向上を示している。
安全第一戦略は、投資率(ROI)が3.91でコスト効率が向上し、代替案よりも152\%向上し、投資率31\%しか必要としない。
このシステムは95.66 %の運転安定性と産業環境への即時適用性を示す。
関連論文リスト
- Experience-Guided Adaptation of Inference-Time Reasoning Strategies [49.954515048847874]
Experience-Guided Reasoner (EGuR) は蓄積された経験に基づいて推論時に調整された戦略を生成する。
EGuRは最強のベースラインに対して最大14%の精度向上を実現し、計算コストを最大111倍に削減する。
論文 参考訳(メタデータ) (2025-11-14T17:45:28Z) - EconProver: Towards More Economical Test-Time Scaling for Automated Theorem Proving [64.15371139980802]
大規模言語モデル(LLM)は、最近、自動定理証明(ATP)の分野を進歩させた。
ATPモデルに対する異なるテスト時間スケーリング戦略は、推論にかなりの計算オーバーヘッドをもたらすことを示す。
本稿では,統一EconRLパイプラインに統合可能な2つの補完手法を提案する。
論文 参考訳(メタデータ) (2025-09-16T03:00:13Z) - MIGT: Memory Instance Gated Transformer Framework for Financial Portfolio Management [0.1398098625978622]
本研究では,メモリインスタンス Gated Transformer (MIGT) を利用したポートフォリオ管理手法を提案する。
当社のアプローチは,学習プロセスの安定性を確保しつつ,投資リターンを最大化することを目的としている。
論文 参考訳(メタデータ) (2025-02-11T05:54:42Z) - Secure Resource Allocation via Constrained Deep Reinforcement Learning [49.15061461220109]
リソース割り当て、タスクオフロード、セキュリティ、パフォーマンスのバランスをとるフレームワークであるSARMTOを紹介します。
SARMTOは5つのベースラインアプローチを一貫して上回り、最大40%のシステムコスト削減を実現している。
これらの拡張は、複雑な分散コンピューティング環境におけるリソース管理に革命をもたらすSARMTOの可能性を強調している。
論文 参考訳(メタデータ) (2025-01-20T15:52:43Z) - SPEQ: Offline Stabilization Phases for Efficient Q-Learning in High Update-To-Data Ratio Reinforcement Learning [51.10866035483686]
強化学習(RL)における高アップデート・トゥ・データ(UTD)比のアルゴリズムは、サンプル効率を改善するが、高い計算コストを伴い、現実世界のスケーラビリティを制限している。
我々は、低UTDオンライントレーニングと周期的オフライン安定化フェーズを組み合わせたRLアルゴリズムである、効率的なQ-Learningのためのオフライン安定化フェーズ(SPEQ)を提案する。
これらのフェーズでは、Q-関数は固定されたリプレイバッファ上で高いUTD比で微調整され、サブ最適データの冗長な更新が削減される。
論文 参考訳(メタデータ) (2025-01-15T09:04:19Z) - TranDRL: A Transformer-Driven Deep Reinforcement Learning Enabled Prescriptive Maintenance Framework [58.474610046294856]
産業システムは、運用効率を高め、ダウンタイムを減らすための信頼性の高い予測保守戦略を要求する。
本稿では,Transformerモデルに基づくニューラルネットワークと深部強化学習(DRL)アルゴリズムの機能を活用し,システムの保守動作を最適化する統合フレームワークを提案する。
論文 参考訳(メタデータ) (2023-09-29T02:27:54Z) - Model-predictive control and reinforcement learning in multi-energy
system case studies [0.2810625954925815]
線形モデル予測制御(LMPC)に対するオブジェクト指向・非政治多強化学習(RL)アプローチを提案する。
TD3) RL エージェントは, LMPC ベンチマーク (101.5%) にマッチし, 性能を上回る可能性が示唆された。
より複雑なMESシステム構成では、RLエージェントの性能は一般に低い(94.6%)が、現実のLMPCよりも優れている(88.9%)。
論文 参考訳(メタデータ) (2021-04-20T06:51:50Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。