論文の概要: Deep Reinforcement Learning for Resource Allocation in Business
Processes
- arxiv url: http://arxiv.org/abs/2104.00541v1
- Date: Mon, 29 Mar 2021 11:20:25 GMT
- ステータス: 処理完了
- システム内更新日: 2021-04-03 11:52:18.292439
- Title: Deep Reinforcement Learning for Resource Allocation in Business
Processes
- Title(参考訳): ビジネスプロセスにおける資源配分のための深層強化学習
- Authors: Kamil \.Zbikowski, Micha{\l} Ostapowicz, Piotr Gawrysiak
- Abstract要約: プロセスに基づく報酬の異なるマルチプロセス環境のモデリングを可能にする新しい表現を提案する。
次に、二重強化学習を使用して、最適なリソース割り当てポリシーを探します。
深層強化学習に基づくリソース割り当ては、一般的な2つのテクニックよりも大幅に優れた結果を得た。
- 参考スコア(独自算出の注目度): 3.0938904602244355
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Assigning resources in business processes execution is a repetitive task that
can be effectively automated. However, different automation methods may give
varying results that may not be optimal. Proper resource allocation is crucial
as it may lead to significant cost reductions or increased effectiveness that
results in increased revenues.
In this work, we first propose a novel representation that allows modeling of
a multi-process environment with different process-based rewards. These
processes can share resources that differ in their eligibility. Then, we use
double deep reinforcement learning to look for optimal resource allocation
policy. We compare those results with two popular strategies that are widely
used in the industry. Learning optimal policy through reinforcement learning
requires frequent interactions with the environment, so we also designed and
developed a simulation engine that can mimic real-world processes.
The results obtained are promising. Deep reinforcement learning based
resource allocation achieved significantly better results compared to two
commonly used techniques.
- Abstract(参考訳): ビジネスプロセスの実行にリソースを割り当てることは、効果的に自動化できる反復的なタスクです。
しかし、異なる自動化手法は最適でないかもしれない様々な結果をもたらすかもしれない。
適切なリソース割り当ては、大幅なコスト削減や、収益の増加につながる効果の増大につながる可能性があるため、非常に重要である。
本稿では,まず,プロセスに基づく報酬の異なるマルチプロセス環境のモデリングを可能にする新しい表現法を提案する。
これらのプロセスは、その適性が異なるリソースを共有することができる。
次に,2重強化学習を用いて最適資源配分政策を提案する。
これらの結果と業界で広く使われている2つの一般的な戦略を比較します。
強化学習による最適政策の学習には環境との頻繁な相互作用が必要であり,実世界のプロセスを模倣できるシミュレーションエンジンの設計・開発も行った。
得られた結果は有望です。
深層強化学習に基づくリソース割り当ては,一般的な2つのテクニックと比較して有意に優れた結果を得た。
関連論文リスト
- From Novice to Expert: LLM Agent Policy Optimization via Step-wise Reinforcement Learning [62.54484062185869]
本稿では,エージェントの強化学習プロセスの最適化にステップワイド報酬を利用するStepAgentを紹介する。
エージェント反射とポリシー調整を容易にする暗黙の逆・逆の強化学習手法を提案する。
論文 参考訳(メタデータ) (2024-11-06T10:35:11Z) - Sample Efficient Reinforcement Learning by Automatically Learning to
Compose Subtasks [3.1594865504808944]
サブタスクを表すラベルのセットを与えられた場合、サンプル効率のために報酬関数を自動的に構成するRLアルゴリズムを提案する。
我々は,様々なスパース・リワード環境におけるアルゴリズムの評価を行った。
論文 参考訳(メタデータ) (2024-01-25T15:06:40Z) - RLIF: Interactive Imitation Learning as Reinforcement Learning [56.997263135104504]
我々は,対話型模倣学習と類似するが,さらに実践的な仮定の下で,非政治強化学習によってパフォーマンスが向上できることを実証する。
提案手法は,ユーザ介入信号を用いた強化学習を報奨として利用する。
このことは、インタラクティブな模倣学習において介入する専門家がほぼ最適であるべきだという仮定を緩和し、アルゴリズムが潜在的に最適でない人間の専門家よりも改善される行動を学ぶことを可能にする。
論文 参考訳(メタデータ) (2023-11-21T21:05:21Z) - Reinforcement Learning with Foundation Priors: Let the Embodied Agent Efficiently Learn on Its Own [59.11934130045106]
我々は、政策、価値、成功-回帰基盤モデルからのガイダンスとフィードバックを活用するために、RLFP(Reinforcement Learning with Foundation Priors)を提案する。
本フレームワークでは,自動報酬関数を用いてより効率的にエージェントを探索できるファウンデーション誘導型アクター・クリティカル(FAC)アルゴリズムを導入する。
本手法は,実ロボットとシミュレーションの両方において,様々な操作タスクにおいて顕著な性能を実現する。
論文 参考訳(メタデータ) (2023-10-04T07:56:42Z) - Learning policies for resource allocation in business processes [0.0]
本稿では,ビジネスプロセスにおける資源配分のための2つの学習手法を提案する。
最初の方法は、深層強化学習(DRL)を利用して、ビジネスプロセスで行動することによって、ほぼ最適なポリシーを学ぶ。
第2の方法はスコアベースの値近似手法であり、リソース割り当ての優先順位付けのためにキュレートされた特徴の集合の重みを学習する。
論文 参考訳(メタデータ) (2023-04-19T21:05:38Z) - Dynamic Resource Allocation for Metaverse Applications with Deep
Reinforcement Learning [64.75603723249837]
そこで本研究では,Metaverse アプリケーション用の異なるタイプのリソースを動的に管理・割り当てする新しいフレームワークを提案する。
まず,アプリケーション間で共通関数を共有できるMetaInstancesという,アプリケーションをグループに分割する効果的なソリューションを提案する。
そこで我々は,要求到着プロセスとアプリケーション離脱プロセスのリアルタイム,動的,不確実な特性を捉えるために,セミマルコフ決定プロセスに基づくフレームワークを開発する。
論文 参考訳(メタデータ) (2023-02-27T00:30:01Z) - Learning to Optimize for Reinforcement Learning [58.01132862590378]
強化学習(Reinforcement Learning, RL)は、教師付き学習とは本質的に異なり、実際、これらの学習は単純なRLタスクでもうまく機能しない。
エージェント勾配分布は非独立で同一分布であり、非効率なメタトレーニングをもたらす。
おもちゃのタスクでしか訓練されていないが、我々の学習はブラックスの目に見えない複雑なタスクを一般化できることを示した。
論文 参考訳(メタデータ) (2023-02-03T00:11:02Z) - The Cost of Learning: Efficiency vs. Efficacy of Learning-Based RRM for
6G [10.28841351455586]
深層強化学習(DRL)は、複雑なネットワークにおける効率的な資源管理戦略を自動学習するための貴重なソリューションとなっている。
多くのシナリオでは、学習タスクはクラウドで実行され、経験サンプルはエッジノードまたはユーザによって直接生成される。
これにより、効果的な戦略に向けて収束をスピードアップする必要性と、学習サンプルの送信にリソースの割り当てが必要となることの間に摩擦が生じます。
本稿では,学習とデータプレーン間の動的バランス戦略を提案する。これにより,集中型学習エージェントは,効率的な資源配分戦略に迅速に収束することができる。
論文 参考訳(メタデータ) (2022-11-30T11:26:01Z) - Actively Learning Costly Reward Functions for Reinforcement Learning [56.34005280792013]
複雑な実世界の環境でエージェントを訓練することは、桁違いに高速であることを示す。
強化学習の手法を新しい領域に適用することにより、興味深く非自明な解を見つけることができることを示す。
論文 参考訳(メタデータ) (2022-11-23T19:17:20Z) - Modelling resource allocation in uncertain system environment through
deep reinforcement learning [0.0]
強化学習(Reinforcement Learning)は、メカトロニクス、ロボティクス、その他の資源に制約のある制御システムに応用されている。
本稿では, 二重深度Qネットワークを用いたノイズバッギングにより, 不確実な環境下での資源配分の問題を効果的に解決できることを示す。
論文 参考訳(メタデータ) (2021-06-17T13:13:34Z) - Efficient Reinforcement Learning in Resource Allocation Problems Through
Permutation Invariant Multi-task Learning [6.247939901619901]
特定の環境では、利用可能なデータはマルチタスク学習の形式で劇的に向上できることを示す。
我々は,この条件下でのサンプル効率の利得に結びついた理論的性能を提供する。
これは、適切なニューラルネットワークアーキテクチャの設計と優先順位付けされたタスクサンプリング戦略を含む、マルチタスク学習への新しいアプローチを動機付ける。
論文 参考訳(メタデータ) (2021-02-18T14:13:02Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。