論文の概要: Learning policies for resource allocation in business processes
- arxiv url: http://arxiv.org/abs/2304.09970v2
- Date: Tue, 23 Jan 2024 11:36:51 GMT
- ステータス: 処理完了
- システム内更新日: 2024-01-24 19:54:45.008387
- Title: Learning policies for resource allocation in business processes
- Title(参考訳): ビジネスプロセスにおける資源配分の学習方針
- Authors: J. Middelhuis, R. Lo Bianco, E. Scherzer, Z. A. Bukhsh, I. J. B. F.
Adan, R. M. Dijkman
- Abstract要約: 本稿では,ビジネスプロセスにおける資源配分のための2つの学習手法を提案する。
最初の方法は、深層強化学習(DRL)を利用して、ビジネスプロセスで行動することによって、ほぼ最適なポリシーを学ぶ。
第2の方法はスコアベースの値近似手法であり、リソース割り当ての優先順位付けのためにキュレートされた特徴の集合の重みを学習する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Efficient allocation of resources to activities is pivotal in executing
business processes but remains challenging. While resource allocation
methodologies are well-established in domains like manufacturing, their
application within business process management remains limited. Existing
methods often do not scale well to large processes with numerous activities or
optimize across multiple cases. This paper aims to address this gap by
proposing two learning-based methods for resource allocation in business
processes. The first method leverages Deep Reinforcement Learning (DRL) to
learn near-optimal policies by taking action in the business process. The
second method is a score-based value function approximation approach, which
learns the weights of a set of curated features to prioritize resource
assignments. To evaluate the proposed approaches, we first designed six
distinct business processes with archetypal process flows and characteristics.
These business processes were then connected to form three realistically sized
business processes. We benchmarked our methods against traditional heuristics
and existing resource allocation methods. The results show that our methods
learn adaptive resource allocation policies that outperform or are competitive
with the benchmarks in five out of six individual business processes. The DRL
approach outperforms all benchmarks in all three composite business processes
and finds a policy that is, on average, 13.1% better than the best-performing
benchmark.
- Abstract(参考訳): アクティビティへのリソースの効率的な割り当ては、ビジネスプロセスの実行において重要であるが、依然として困難である。
リソース割り当ての方法論は製造のようなドメインでは十分に確立されているが、ビジネスプロセス管理における彼らの応用は限られている。
既存のメソッドは、多数のアクティビティを持つ大規模なプロセスや、複数のケースにまたがる最適化に適さないことが多い。
本稿では,ビジネスプロセスにおける資源配分に関する2つの学習手法を提案することにより,このギャップに対処することを目的とする。
最初の方法は、深層強化学習(DRL)を利用して、ビジネスプロセスで行動することによって、ほぼ最適なポリシーを学ぶ。
第2の方法はスコアベースの値関数近似アプローチで、キュレートされた特徴の集合の重みを学習し、リソース割り当てを優先する。
提案手法を評価するため,先天的なプロセスフローと特徴を持つ6つの異なるビジネスプロセスを最初に設計した。
これらのビジネスプロセスは3つの現実的な規模のビジネスプロセスを形成するために接続された。
従来のヒューリスティックスと既存のリソース割り当て手法に対してベンチマークを行った。
その結果,6つのビジネスプロセスのうち5つで,ベンチマークを上回ったり,競合したりする適応的資源配分ポリシーを学習できることがわかった。
DRLアプローチは3つの複合ビジネスプロセスすべてにおいてすべてのベンチマークを上回り、平均すると、最高のパフォーマンスベンチマークよりも13.1%良いポリシーを見つける。
関連論文リスト
- From Novice to Expert: LLM Agent Policy Optimization via Step-wise Reinforcement Learning [62.54484062185869]
本稿では,エージェントの強化学習プロセスの最適化にステップワイド報酬を利用するStepAgentを紹介する。
エージェント反射とポリシー調整を容易にする暗黙の逆・逆の強化学習手法を提案する。
論文 参考訳(メタデータ) (2024-11-06T10:35:11Z) - On Speeding Up Language Model Evaluation [48.51924035873411]
LLM(Large Language Models)を用いたプロンプトベースの手法の開発には、多くの意思決定が必要である。
この課題に対処するための新しい手法を提案する。
典型的に必要とされるリソースの5~15%しか必要とせず,トップパフォーマンスの手法を識別できることが示される。
論文 参考訳(メタデータ) (2024-07-08T17:48:42Z) - Maximize to Explore: One Objective Function Fusing Estimation, Planning,
and Exploration [87.53543137162488]
我々はtextttMEX というオンライン強化学習(オンラインRL)フレームワークを提案する。
textttMEXは、自動的に探索エクスプロイトのバランスをとりながら、見積もりと計画コンポーネントを統合する。
様々な MuJoCo 環境では,ベースラインを安定的なマージンで上回り,十分な報酬を得られる。
論文 参考訳(メタデータ) (2023-05-29T17:25:26Z) - Recommending the optimal policy by learning to act from temporal data [2.554326189662943]
本稿では,Reinforcement (RL) を用いて学習するAIベースのアプローチを提案する。
このアプローチは、実データと合成データセットに基づいて検証され、非政治的なDeep RLアプローチと比較される。
我々のアプローチがDeep RLアプローチと比較し、しばしば克服する能力は、時間的実行データしか利用できないシナリオにおいて、ホワイトボックスのRLテクニックの活用に寄与する。
論文 参考訳(メタデータ) (2023-03-16T10:30:36Z) - Exploration via Planning for Information about the Optimal Trajectory [67.33886176127578]
我々は,タスクと現在の知識を考慮に入れながら,探索を計画できる手法を開発した。
本手法は, 探索基準値よりも2倍少ないサンプルで, 強いポリシーを学習できることを実証する。
論文 参考訳(メタデータ) (2022-10-06T20:28:55Z) - Meta Reinforcement Learning with Successor Feature Based Context [51.35452583759734]
本稿では,既存のメタRLアルゴリズムと競合する性能を実現するメタRL手法を提案する。
本手法は,複数のタスクに対して同時に高品質なポリシーを学習するだけでなく,短時間のトレーニングで新しいタスクに迅速に適応できる。
論文 参考訳(メタデータ) (2022-07-29T14:52:47Z) - Distributional Reinforcement Learning for Scheduling of (Bio)chemical
Production Processes [0.0]
強化学習(Reinforcement Learning, RL)は、最近、プロセスシステム工学と制御コミュニティから大きな注目を集めている。
本稿では,生産スケジューリング問題に共通して課される優先的制約と解離的制約に対処するRL手法を提案する。
論文 参考訳(メタデータ) (2022-03-01T17:25:40Z) - Math Programming based Reinforcement Learning for Multi-Echelon
Inventory Management [1.9161790404101895]
強化学習は、ロボット工学、ゲーム、その他多くの分野において、かなりのブレークスルーをもたらしている。
しかし、複雑な実世界の意思決定問題におけるRLの応用は依然として限られている。
これらの特徴は、ステップアクションの問題を解くために列挙法に依存する既存のRL法において、問題を解くのをかなり難しくする。
本研究では,不確実性分布の適切に選択された離散化が,不確実性からのサンプルがごく少ない場合でも,最適なアクターポリシーに近づきうることを示す。
PARLはベースストックを44.7%、RL法を12.1%上回っている。
論文 参考訳(メタデータ) (2021-12-04T01:40:34Z) - FewNLU: Benchmarking State-of-the-Art Methods for Few-Shot Natural
Language Understanding [89.92513889132825]
本稿では,従来の評価手順を,テスト性能,開発-テスト相関,安定性の3つの重要な側面で改善する評価フレームワークを提案する。
評価フレームワークを実装したツールキットFewNLUと、最先端のメソッドをオープンソースとして公開しています。
論文 参考訳(メタデータ) (2021-09-27T00:57:30Z) - Automatic Resource Allocation in Business Processes: A Systematic Literature Survey [0.0699049312989311]
リソース割り当ては複雑な意思決定の問題であり、プロセスの有効性と効率に大きな影響を与えます。
研究アロケーションを自動で支援するために、幅広いアプローチが開発された。
論文 参考訳(メタデータ) (2021-07-15T11:40:20Z) - Deep Reinforcement Learning for Resource Allocation in Business
Processes [3.0938904602244355]
プロセスに基づく報酬の異なるマルチプロセス環境のモデリングを可能にする新しい表現を提案する。
次に、二重強化学習を使用して、最適なリソース割り当てポリシーを探します。
深層強化学習に基づくリソース割り当ては、一般的な2つのテクニックよりも大幅に優れた結果を得た。
論文 参考訳(メタデータ) (2021-03-29T11:20:25Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。