論文の概要: Optimal data pooling for shared learning in maintenance operations
- arxiv url: http://arxiv.org/abs/2308.12670v1
- Date: Thu, 24 Aug 2023 09:27:38 GMT
- ステータス: 処理完了
- システム内更新日: 2023-08-25 14:37:32.829544
- Title: Optimal data pooling for shared learning in maintenance operations
- Title(参考訳): 保守作業における共有学習のための最適データプーリング
- Authors: Collin Drent and Melvin Drent and Geert-Jan van Houtum
- Abstract要約: 本稿では,その分解結果を2次元のMDPに還元する。
この分解を利用して、プーリングデータをプールしない場合に比べて大幅なコスト削減につながることを実証する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: This paper addresses the benefits of pooling data for shared learning in
maintenance operations. We consider a set of systems subject to Poisson
degradation that are coupled through an a-priori unknown rate. Decision
problems involving these systems are high-dimensional Markov decision processes
(MDPs). We present a decomposition result that reduces such an MDP to
two-dimensional MDPs, enabling structural analyses and computations. We
leverage this decomposition to demonstrate that pooling data can lead to
significant cost reductions compared to not pooling.
- Abstract(参考訳): 本稿では,保守作業における共有学習のためのデータプールの利点について述べる。
我々は,a-priori 未知数で結合したポアソン分解系を考える。
これらのシステムに関わる決定問題は、高次元マルコフ決定過程(MDP)である。
本稿では,MDP を 2 次元 MDP に還元し,構造解析と計算を可能にする分解結果を提案する。
この分解を利用して、プーリングデータをプールしない場合に比べて大幅なコスト削減につながることを示す。
関連論文リスト
- Capacity-Aware Planning and Scheduling in Budget-Constrained Monotonic MDPs: A Meta-RL Approach [7.385321178884467]
多くの実世界のシーケンシャル修復問題は、単調マルコフ決定プロセス(MDP)を用いて効果的にモデル化できる。
本研究は,多成分単調MDPを予算とキャパシティの制約で解く問題に対処する。
論文 参考訳(メタデータ) (2024-10-28T17:48:45Z) - Solving Truly Massive Budgeted Monotonic POMDPs with Oracle-Guided Meta-Reinforcement Learning [1.1470070927586018]
本稿では,予算制約付き多成分単調POMDPの解法について考察する。
多くのコンポーネントに対して、現在の手法でそのようなPOMDPを解くことは、計算的に難解である。
我々は, 独立予算制約単成分POMDPのそれぞれを解くために, オラクル誘導メタトレーニングプロキシポリシー最適化 (PPO) アルゴリズムを導入する。
論文 参考訳(メタデータ) (2024-08-13T20:20:58Z) - Two-Stage ML-Guided Decision Rules for Sequential Decision Making under Uncertainty [55.06411438416805]
SDMU (Sequential Decision Making Under Uncertainty) は、エネルギー、金融、サプライチェーンといった多くの領域において、ユビキタスである。
いくつかのSDMUは、自然にマルチステージ問題(MSP)としてモデル化されているが、結果として得られる最適化は、計算の観点からは明らかに困難である。
本稿では,2段階の一般決定規則(TS-GDR)を導入し,線形関数を超えて政策空間を一般化する手法を提案する。
TS-GDRの有効性は、TS-LDR(Two-Stage Deep Decision Rules)と呼ばれるディープリカレントニューラルネットワークを用いたインスタンス化によって実証される。
論文 参考訳(メタデータ) (2024-05-23T18:19:47Z) - OTClean: Data Cleaning for Conditional Independence Violations using
Optimal Transport [51.6416022358349]
sysは、条件付き独立性(CI)制約下でのデータ修復に最適な輸送理論を利用するフレームワークである。
我々はSinkhornの行列スケーリングアルゴリズムにインスパイアされた反復アルゴリズムを開発し、高次元および大規模データを効率的に処理する。
論文 参考訳(メタデータ) (2024-03-04T18:23:55Z) - Worst-Case Control and Learning Using Partial Observations Over an
Infinite Time-Horizon [2.456909016197174]
安全クリティカルなサイバー物理システムは、敵の混乱に対する堅牢な制御戦略と不確実性をモデル化する必要がある。
有限時間地平線上での最悪の割引コストを最小限に抑えるため,部分観測システムにおける近似制御と学習の枠組みを提案する。
論文 参考訳(メタデータ) (2023-03-28T21:40:06Z) - Solving PDE-constrained Control Problems Using Operator Learning [14.30832827446317]
特殊正規化器を用いたPDE解演算子に対するサロゲートモデルを導入する。
私たちのフレームワークは、データ駆動とデータフリーの両方のケースに適用できます。
論文 参考訳(メタデータ) (2021-11-09T03:41:55Z) - Learning MDPs from Features: Predict-Then-Optimize for Sequential
Decision Problems by Reinforcement Learning [52.74071439183113]
我々は、強化学習を通して解決された逐次決定問題(MDP)の文脈における予測列最適化フレームワークについて検討した。
2つの重要な計算課題は、意思決定中心の学習をMDPに適用することである。
論文 参考訳(メタデータ) (2021-06-06T23:53:31Z) - Stein Variational Model Predictive Control [130.60527864489168]
不確実性の下での意思決定は、現実の自律システムにとって極めて重要である。
モデル予測制御 (MPC) 法は, 複雑な分布を扱う場合, 適用範囲が限られている。
この枠組みが、挑戦的で非最適な制御問題における計画の成功に繋がることを示す。
論文 参考訳(メタデータ) (2020-11-15T22:36:59Z) - Optimal Inspection and Maintenance Planning for Deteriorating Structural
Components through Dynamic Bayesian Networks and Markov Decision Processes [0.0]
部分的に観測可能なマルコフ決定過程(POMDPs)は、不確実な行動結果と観測下での最適制御のための数学的方法論を提供する。
本稿では, 有限地平線POMDPを構造的信頼性の文脈で開発するための定式化について述べる。
その結果,従来の問題設定においても,POMDPのコストは従来に比べて大幅に低減した。
論文 参考訳(メタデータ) (2020-09-09T20:03:42Z) - Combining Deep Learning and Optimization for Security-Constrained
Optimal Power Flow [94.24763814458686]
セキュリティに制約のある最適電力フロー(SCOPF)は、電力システムの基本である。
SCOPF問題におけるAPRのモデル化は、複雑な大規模混合整数プログラムをもたらす。
本稿では,ディープラーニングとロバスト最適化を組み合わせた新しい手法を提案する。
論文 参考訳(メタデータ) (2020-07-14T12:38:21Z) - Exploration-Exploitation in Constrained MDPs [79.23623305214275]
拘束マルコフ決定過程(CMDP)における探索・探索ジレンマについて検討する。
未知のCMDPで学習している間、エージェントは、MDPに関する新しい情報を見つけるために、トレードオフ探索を行う必要がある。
エージェントは最終的に良い方針や最適な方針を学習するが、学習プロセス中にエージェントが制約に過度に違反することを望まない。
論文 参考訳(メタデータ) (2020-03-04T17:03:56Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。