論文の概要: A Universal Approach to Feature Representation in Dynamic Task Assignment Problems
- arxiv url: http://arxiv.org/abs/2507.03579v1
- Date: Fri, 04 Jul 2025 13:48:28 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-07-08 15:46:34.788269
- Title: A Universal Approach to Feature Representation in Dynamic Task Assignment Problems
- Title(参考訳): 動的タスク割り当て問題における特徴表現への普遍的アプローチ
- Authors: Riccardo Lo Bianco, Remco Dijkman, Wim Nuijten, Willem van Jaarsveld,
- Abstract要約: 課題解決のための技術として,深層強化学習(DRL)が提案されている。
本稿では,無限の状態と行動空間を用いた代入問題の表現と解法を提案する。
実験の結果,提案手法は最適タスク割り当てポリシーを表現および学習するのに適していることがわかった。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Dynamic task assignment concerns the optimal assignment of resources to tasks in a business process. Recently, Deep Reinforcement Learning (DRL) has been proposed as the state of the art for solving assignment problems. DRL methods usually employ a neural network (NN) as an approximator for the policy function, which ingests the state of the process and outputs a valuation of the possible assignments. However, representing the state and the possible assignments so that they can serve as inputs and outputs for a policy NN remains an open challenge, especially when tasks or resources have features with an infinite number of possible values. To solve this problem, this paper proposes a method for representing and solving assignment problems with infinite state and action spaces. In doing so, it provides three contributions: (I) A graph-based feature representation of assignment problems, which we call assignment graph; (II) A mapping from marked Colored Petri Nets to assignment graphs; (III) An adaptation of the Proximal Policy Optimization algorithm that can learn to solve assignment problems represented through assignment graphs. To evaluate the proposed representation method, we model three archetypal assignment problems ranging from finite to infinite state and action space dimensionalities. The experiments show that the method is suitable for representing and learning close-to-optimal task assignment policies regardless of the state and action space dimensionalities.
- Abstract(参考訳): 動的なタスク割り当ては、ビジネスプロセスにおけるタスクに対するリソースの最適な割り当てに関するものです。
近年,課題解決のための最先端技術として,Deep Reinforcement Learning (DRL) が提案されている。
DRL法は通常、ポリシー関数の近似としてニューラルネットワーク(NN)を使用し、プロセスの状態を取り込み、可能な割り当てのバリュエーションを出力する。
しかしながら、状態と可能な割り当てを表現して、ポリシーNNの入力や出力として機能できるようにすることは、特にタスクやリソースが無限の可能な値を持つ機能を持つ場合、オープンな課題である。
そこで本研究では,無限の状態と行動空間で代入問題を表現し,解決する手法を提案する。
代入グラフと呼ぶグラフベースの特徴表現、(II)有色ペトリネットから代入グラフへのマッピング、(III)代入グラフで表される代入問題の解法を学ぶための近似ポリシー最適化アルゴリズムの適応。
提案手法を評価するために,有限状態から無限状態,行動空間次元の3つのアーキティパル代入問題をモデル化した。
提案手法は, 状態や行動空間の次元に関わらず, 最適タスク割り当てポリシーを表現および学習するのに適していることを示す。
関連論文リスト
- Causally Aligned Curriculum Learning [69.11672390876763]
本稿では、因果レンズによるカリキュラムRLの問題について検討する。
因果的に整合したソースタスクを特徴付ける十分なグラフィカルな条件を導出する。
因果整合型カリキュラムを生成するための効率的なアルゴリズムを開発した。
論文 参考訳(メタデータ) (2025-03-21T02:20:38Z) - Learning Task Representations from In-Context Learning [73.72066284711462]
大規模言語モデル(LLM)は、文脈内学習において顕著な習熟性を示している。
ICLプロンプトにおけるタスク情報をアテンションヘッドの関数として符号化するための自動定式化を導入する。
提案手法の有効性は,最後の隠れ状態の分布と最適に実行されたテキスト内学習モデルとの整合性に起因していることを示す。
論文 参考訳(メタデータ) (2025-02-08T00:16:44Z) - Can Graph Learning Improve Planning in LLM-based Agents? [61.47027387839096]
言語エージェントにおけるタスクプランニングは、大規模言語モデル(LLM)の開発とともに重要な研究トピックとして浮上している。
本稿では,課題計画のためのグラフ学習に基づく手法について検討する。
我々のグラフ学習への関心は、注意のバイアスと自己回帰的損失が、グラフ上の意思決定を効果的にナビゲートするLLMの能力を妨げているという理論的な発見に起因している。
論文 参考訳(メタデータ) (2024-05-29T14:26:24Z) - Natural Policy Gradient and Actor Critic Methods for Constrained Multi-Task Reinforcement Learning [13.908826484332282]
マルチタスク強化学習(Multi-task reinforcement learning, RL)は、複数のタスクを同時に効果的に解決する単一のポリシーを見つけることを目的としている。
本稿では,マルチタスクRLの制約付き定式化を行い,各タスクのパフォーマンスに制約が課せられるタスク間のポリシーの平均性能を最大化することを目的とする。
論文 参考訳(メタデータ) (2024-05-03T19:43:30Z) - Action-Evolution Petri Nets: a Framework for Modeling and Solving
Dynamic Task Assignment Problems [0.0]
Action-Evolution Petri Nets (A-E PN) は動的タスク割り当て問題のモデル化と解決のためのフレームワークである。
A-E PNモデルは実行可能であり、最適化された割り当てポリシーを学習するために使用できる。
A-E PNが最適配置ポリシーの学習に有効であることを示す。
論文 参考訳(メタデータ) (2023-06-05T14:14:48Z) - Low-Dimensional State and Action Representation Learning with MDP
Homomorphism Metrics [1.5293427903448022]
深層強化学習(Deep Reinforcement Learning)は、高次元観察から直接複雑な問題を解く能力を示している。
エンドツーエンドの設定では、強化学習アルゴリズムはサンプリング効率が良くなく、長いトレーニング時間と大量のデータを必要とする。
状態と行動表現を利用して高次元問題を低次元に変換するサンプル効率強化学習フレームワークを提案する。
論文 参考訳(メタデータ) (2021-07-04T16:26:04Z) - Goal Kernel Planning: Linearly-Solvable Non-Markovian Policies for Logical Tasks with Goal-Conditioned Options [54.40780660868349]
我々はLinearly-Solvable Goal Kernel Dynamic Programming (LS-GKDP)と呼ばれる合成フレームワークを導入する。
LS-GKDPは、Linearly-Solvable Markov Decision Process (LMDP)形式とOptions Framework of Reinforcement Learningを組み合わせたものである。
本稿では,目標カーネルを持つLMDPが,タスク接地によって定義された低次元部分空間におけるメタポリティシの効率的な最適化を実現する方法を示す。
論文 参考訳(メタデータ) (2020-07-06T05:13:20Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。