論文の概要: Learning policies for resource allocation in business processes
- arxiv url: http://arxiv.org/abs/2304.09970v2
- Date: Tue, 23 Jan 2024 11:36:51 GMT
- ステータス: 処理完了
- システム内更新日: 2024-01-24 19:54:45.008387
- Title: Learning policies for resource allocation in business processes
- Title(参考訳): ビジネスプロセスにおける資源配分の学習方針
- Authors: J. Middelhuis, R. Lo Bianco, E. Scherzer, Z. A. Bukhsh, I. J. B. F.
Adan, R. M. Dijkman
- Abstract要約: 本稿では,ビジネスプロセスにおける資源配分のための2つの学習手法を提案する。
最初の方法は、深層強化学習(DRL)を利用して、ビジネスプロセスで行動することによって、ほぼ最適なポリシーを学ぶ。
第2の方法はスコアベースの値近似手法であり、リソース割り当ての優先順位付けのためにキュレートされた特徴の集合の重みを学習する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Efficient allocation of resources to activities is pivotal in executing
business processes but remains challenging. While resource allocation
methodologies are well-established in domains like manufacturing, their
application within business process management remains limited. Existing
methods often do not scale well to large processes with numerous activities or
optimize across multiple cases. This paper aims to address this gap by
proposing two learning-based methods for resource allocation in business
processes. The first method leverages Deep Reinforcement Learning (DRL) to
learn near-optimal policies by taking action in the business process. The
second method is a score-based value function approximation approach, which
learns the weights of a set of curated features to prioritize resource
assignments. To evaluate the proposed approaches, we first designed six
distinct business processes with archetypal process flows and characteristics.
These business processes were then connected to form three realistically sized
business processes. We benchmarked our methods against traditional heuristics
and existing resource allocation methods. The results show that our methods
learn adaptive resource allocation policies that outperform or are competitive
with the benchmarks in five out of six individual business processes. The DRL
approach outperforms all benchmarks in all three composite business processes
and finds a policy that is, on average, 13.1% better than the best-performing
benchmark.
- Abstract(参考訳): アクティビティへのリソースの効率的な割り当ては、ビジネスプロセスの実行において重要であるが、依然として困難である。
リソース割り当ての方法論は製造のようなドメインでは十分に確立されているが、ビジネスプロセス管理における彼らの応用は限られている。
既存のメソッドは、多数のアクティビティを持つ大規模なプロセスや、複数のケースにまたがる最適化に適さないことが多い。
本稿では,ビジネスプロセスにおける資源配分に関する2つの学習手法を提案することにより,このギャップに対処することを目的とする。
最初の方法は、深層強化学習(DRL)を利用して、ビジネスプロセスで行動することによって、ほぼ最適なポリシーを学ぶ。
第2の方法はスコアベースの値関数近似アプローチで、キュレートされた特徴の集合の重みを学習し、リソース割り当てを優先する。
提案手法を評価するため,先天的なプロセスフローと特徴を持つ6つの異なるビジネスプロセスを最初に設計した。
これらのビジネスプロセスは3つの現実的な規模のビジネスプロセスを形成するために接続された。
従来のヒューリスティックスと既存のリソース割り当て手法に対してベンチマークを行った。
その結果,6つのビジネスプロセスのうち5つで,ベンチマークを上回ったり,競合したりする適応的資源配分ポリシーを学習できることがわかった。
DRLアプローチは3つの複合ビジネスプロセスすべてにおいてすべてのベンチマークを上回り、平均すると、最高のパフォーマンスベンチマークよりも13.1%良いポリシーを見つける。
関連論文リスト
- FRAPP\'E: A Group Fairness Framework for Post-Processing Everything [50.24510773409576]
本稿では,任意の正規化インプロセッシング手法をポストプロセッシング手法に変換するフレームワークを提案する。
理論的および実験を通して、我々のフレームワークは、内部処理で達成された優れた公正なエラートレードオフを保っていることを示す。
論文 参考訳(メタデータ) (2023-12-05T09:09:21Z) - Beyond Average Return in Markov Decision Processes [49.157108194438635]
我々は、分散強化学習(DistRL)のより一般的なフレームワークであっても、一般化された手段のみが正確に最適化可能であることを証明した。
得られた推定器の誤差境界を提供し、このアプローチの潜在的な可能性とその限界について議論する。
論文 参考訳(メタデータ) (2023-10-31T08:36:41Z) - The WHY in Business Processes: Discovery of Causal Execution
Dependencies [2.0811729303868005]
本稿では,既存の因果探索アルゴリズムを活動タイミングよりも活用することで,真の因果ビジネスプロセスを公開するための体系的なアプローチを提案する。
本手法は,3つの因果パターンの文脈における2つのモデル間の相違を探索し,これらの不整合がマイニングプロセスモデル上で注釈付けされるという新たな視点を導出する。
論文 参考訳(メタデータ) (2023-10-23T14:23:15Z) - Recommending the optimal policy by learning to act from temporal data [2.554326189662943]
本稿では,Reinforcement (RL) を用いて学習するAIベースのアプローチを提案する。
このアプローチは、実データと合成データセットに基づいて検証され、非政治的なDeep RLアプローチと比較される。
我々のアプローチがDeep RLアプローチと比較し、しばしば克服する能力は、時間的実行データしか利用できないシナリオにおいて、ホワイトボックスのRLテクニックの活用に寄与する。
論文 参考訳(メタデータ) (2023-03-16T10:30:36Z) - A Novel Approach for Auto-Formulation of Optimization Problems [66.94228200699997]
Natural Language for Optimization (NL4Opt) NeurIPS 2022コンペティションでは、最適化ソルバのアクセシビリティとユーザビリティの改善に重点を置いている。
本稿では,チームのソリューションについて述べる。
提案手法は,サブタスク1のF1スコアとサブタスク2の0.867の精度を達成し,それぞれ第4位,第3位を獲得した。
論文 参考訳(メタデータ) (2023-02-09T13:57:06Z) - Exploration via Planning for Information about the Optimal Trajectory [67.33886176127578]
我々は,タスクと現在の知識を考慮に入れながら,探索を計画できる手法を開発した。
本手法は, 探索基準値よりも2倍少ないサンプルで, 強いポリシーを学習できることを実証する。
論文 参考訳(メタデータ) (2022-10-06T20:28:55Z) - Distributional Reinforcement Learning for Scheduling of (Bio)chemical
Production Processes [0.0]
強化学習(Reinforcement Learning, RL)は、最近、プロセスシステム工学と制御コミュニティから大きな注目を集めている。
本稿では,生産スケジューリング問題に共通して課される優先的制約と解離的制約に対処するRL手法を提案する。
論文 参考訳(メタデータ) (2022-03-01T17:25:40Z) - Math Programming based Reinforcement Learning for Multi-Echelon
Inventory Management [1.9161790404101895]
強化学習は、ロボット工学、ゲーム、その他多くの分野において、かなりのブレークスルーをもたらしている。
しかし、複雑な実世界の意思決定問題におけるRLの応用は依然として限られている。
これらの特徴は、ステップアクションの問題を解くために列挙法に依存する既存のRL法において、問題を解くのをかなり難しくする。
本研究では,不確実性分布の適切に選択された離散化が,不確実性からのサンプルがごく少ない場合でも,最適なアクターポリシーに近づきうることを示す。
PARLはベースストックを44.7%、RL法を12.1%上回っている。
論文 参考訳(メタデータ) (2021-12-04T01:40:34Z) - FewNLU: Benchmarking State-of-the-Art Methods for Few-Shot Natural
Language Understanding [89.92513889132825]
本稿では,従来の評価手順を,テスト性能,開発-テスト相関,安定性の3つの重要な側面で改善する評価フレームワークを提案する。
評価フレームワークを実装したツールキットFewNLUと、最先端のメソッドをオープンソースとして公開しています。
論文 参考訳(メタデータ) (2021-09-27T00:57:30Z) - Deep Reinforcement Learning for Resource Allocation in Business
Processes [3.0938904602244355]
プロセスに基づく報酬の異なるマルチプロセス環境のモデリングを可能にする新しい表現を提案する。
次に、二重強化学習を使用して、最適なリソース割り当てポリシーを探します。
深層強化学習に基づくリソース割り当ては、一般的な2つのテクニックよりも大幅に優れた結果を得た。
論文 参考訳(メタデータ) (2021-03-29T11:20:25Z) - Application-Driven Learning: A Closed-Loop Prediction and Optimization
Approach Applied to Dynamic Reserves and Demand Forecasting [62.997667081978825]
我々は、予測と意思決定のプロセスが統合され、協調最適化される新しいクローズドループフレームワークであるアプリケーション駆動学習を提案する。
提案手法は拡張性があり,標準のオープンループ手法よりも一貫して性能が向上することを示す。
論文 参考訳(メタデータ) (2021-02-26T02:43:28Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。