論文の概要: Multi-Agent Reinforcement Learning with Long-Term Performance Objectives for Service Workforce Optimization
- arxiv url: http://arxiv.org/abs/2503.01069v1
- Date: Mon, 03 Mar 2025 00:16:47 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-03-05 19:16:02.108988
- Title: Multi-Agent Reinforcement Learning with Long-Term Performance Objectives for Service Workforce Optimization
- Title(参考訳): サービスワークフォース最適化のための長期性能目標を用いたマルチエージェント強化学習
- Authors: Kareem Eissa, Rayal Prasad, Sarith Mohan, Ankur Kapoor, Dorin Comaniciu, Vivek Singh,
- Abstract要約: 我々の目標は、統合労働力最適化問題をモデル化するシミュレータを作ることである。
具体的には,強化学習手法の開発を支援するモジュールシミュレータを設計した。
シミュレータはパラメータ化を提供し、様々なレベルのアブレーションと非定常性を持つ動的なシナリオを探索するのに役立つ。
- 参考スコア(独自算出の注目度): 2.865067924658368
- License:
- Abstract: Workforce optimization plays a crucial role in efficient organizational operations where decision-making may span several different administrative and time scales. For instance, dispatching personnel to immediate service requests while managing talent acquisition with various expertise sets up a highly dynamic optimization problem. Existing work focuses on specific sub-problems such as resource allocation and facility location, which are solved with heuristics like local-search and, more recently, deep reinforcement learning. However, these may not accurately represent real-world scenarios where such sub-problems are not fully independent. Our aim is to fill this gap by creating a simulator that models a unified workforce optimization problem. Specifically, we designed a modular simulator to support the development of reinforcement learning methods for integrated workforce optimization problems. We focus on three interdependent aspects: personnel dispatch, workforce management, and personnel positioning. The simulator provides configurable parameterizations to help explore dynamic scenarios with varying levels of stochasticity and non-stationarity. To facilitate benchmarking and ablation studies, we also include heuristic and RL baselines for the above mentioned aspects.
- Abstract(参考訳): 意思決定がいくつかの異なる管理規模と時間スケールにまたがる、効率的な組織運用において、ワークフォースの最適化は重要な役割を担います。
例えば、人材を即時サービス要求に派遣し、様々な専門知識で人材獲得を管理している場合、非常に動的な最適化問題が発生する。
既存の研究は、資源割り当てや施設の位置といった特定のサブプロブレムに焦点を当てており、ローカルサーチやより最近のディープ強化学習のようなヒューリスティックな手法で解決されている。
しかし、このようなサブプロブレムが完全に独立していない現実のシナリオを正確に表現することはできない。
我々の目標は、統一労働力最適化問題をモデル化するシミュレータを作成することで、このギャップを埋めることである。
具体的には、統合労働力最適化問題に対する強化学習手法の開発を支援するモジュールシミュレータを設計した。
我々は、人事派遣、労働管理、人事配置の3つの相互依存的な側面に焦点を当てる。
このシミュレータは、確率性と非定常性の異なる動的シナリオを探索するために、設定可能なパラメータ化を提供する。
ベンチマークとアブレーションの研究を容易にするため、上記の側面に対するヒューリスティックおよびRLベースラインも含んでいる。
関連論文リスト
- A Multi-AI Agent System for Autonomous Optimization of Agentic AI Solutions via Iterative Refinement and LLM-Driven Feedback Loops [3.729242965449096]
本稿では,産業間におけるエージェントAIソリューションを自律的に最適化するフレームワークを提案する。
このフレームワークは、仮説を自律的に生成し、テストすることで、人間の入力なしに最適な性能を達成する。
ケーススタディでは、アウトプットの品質、妥当性、動作性が大幅に改善された。
論文 参考訳(メタデータ) (2024-12-22T20:08:04Z) - MALT: Improving Reasoning with Multi-Agent LLM Training [66.9481561915524]
MALT(Multi-Agent LLM Training)は、推論プロセスを生成、検証、改善ステップに分割する、新しいポストトレーニング戦略である。
MATH、GSM8K、CSQAでは、MALTは、それぞれ15.66%、7.42%、9.40%の相対的な改善で同じベースラインLLMを上回っている。
論文 参考訳(メタデータ) (2024-12-02T19:30:36Z) - Characterization of Large Language Model Development in the Datacenter [55.9909258342639]
大きな言語モデル(LLM)は、いくつかの変換タスクにまたがって素晴らしいパフォーマンスを示している。
しかし,大規模クラスタ資源を効率よく利用してLCMを開発することは容易ではない。
我々は,GPUデータセンタAcmeから収集した6ヶ月のLDM開発ワークロードの詳細な評価を行った。
論文 参考訳(メタデータ) (2024-03-12T13:31:14Z) - Orchestration of Emulator Assisted Mobile Edge Tuning for AI Foundation
Models: A Multi-Agent Deep Reinforcement Learning Approach [10.47302625959368]
我々は,モバイルエッジコンピューティングと基礎モデルを統合した画期的なパラダイムを提示する。
私たちのアプローチの中心はイノベーティブなEmulator-Adapterアーキテクチャであり、基礎モデルを2つの凝集モジュールに分割する。
本稿では,分散環境におけるEmulator-Adapter構造のニーズに合わせて微調整された高度なリソース割り当て機構を提案する。
論文 参考訳(メタデータ) (2023-10-26T15:47:51Z) - Reinforcement Learning Approach for Multi-Agent Flexible Scheduling
Problems [0.0]
本研究では,スケジューリング問題に対する強化学習手法を提案する。
特に,本研究では,ジョブショップスケジューリング問題に対して,検索スペースを削減したオープンAIジム環境を提供する。
論文 参考訳(メタデータ) (2022-10-07T16:31:01Z) - Controllable Dynamic Multi-Task Architectures [92.74372912009127]
本稿では,そのアーキテクチャと重みを動的に調整し,所望のタスク選択とリソース制約に適合させる制御可能なマルチタスクネットワークを提案する。
本稿では,タスク親和性と分岐正規化損失を利用した2つのハイパーネットの非交互トレーニングを提案し,入力の嗜好を取り入れ,適応重み付き木構造モデルを予測する。
論文 参考訳(メタデータ) (2022-03-28T17:56:40Z) - Reinforcement Learning for Location-Aware Scheduling [1.0660480034605238]
倉庫環境の様々な側面がパフォーマンスや実行の優先順位にどのように影響するかを示す。
位置認識型マルチエージェントシステムのための状態空間と動作空間のコンパクト表現を提案する。
また、特定の環境で訓練されたエージェントが、完全に見えない環境でパフォーマンスを維持する方法を示す。
論文 参考訳(メタデータ) (2022-03-07T15:51:00Z) - Energy-Efficient Multi-Orchestrator Mobile Edge Learning [54.28419430315478]
Mobile Edge Learning(MEL)は、エッジデバイス上で機械学習(ML)モデルの分散トレーニングを特徴とする、協調学習パラダイムである。
MELでは、異なるデータセットで複数の学習タスクが共存する可能性がある。
本稿では, エネルギー消費, 精度, 解複雑性のトレードオフを容易にする軽量なアルゴリズムを提案する。
論文 参考訳(メタデータ) (2021-09-02T07:37:10Z) - Efficient Model-Based Multi-Agent Mean-Field Reinforcement Learning [89.31889875864599]
マルチエージェントシステムにおける学習に有効なモデルベース強化学習アルゴリズムを提案する。
我々の理論的な貢献は、MFCのモデルベース強化学習における最初の一般的な後悔の限界である。
コア最適化問題の実用的なパラメトリゼーションを提供する。
論文 参考訳(メタデータ) (2021-07-08T18:01:02Z) - Auxiliary-task Based Deep Reinforcement Learning for Participant
Selection Problem in Mobile Crowdsourcing [30.124365580284888]
モバイルのクラウドソーシングでは、複数の目標を達成するために、求職者からの位置情報対応タスクを参加者に選択する。
異なる MCS システムには異なる目標があり、ある MCS システムでも相反する目標が存在する可能性がある。
複数の目標を達成するために,様々なMCSシステムに適用可能な参加者選択アルゴリズムを設計することが重要である。
論文 参考訳(メタデータ) (2020-08-25T15:02:54Z) - Dynamic Federated Learning [57.14673504239551]
フェデレートラーニング(Federated Learning)は、マルチエージェント環境における集中的なコーディネーション戦略の包括的用語として登場した。
我々は、各イテレーションにおいて、利用可能なエージェントのランダムなサブセットがそのデータに基づいてローカル更新を実行する、フェデレートされた学習モデルを考える。
集約最適化問題に対する真の最小化器上の非定常ランダムウォークモデルの下で、アーキテクチャの性能は、各エージェントにおけるデータ変動率、各エージェントにおけるモデル変動率、アルゴリズムの学習率に逆比例する追跡項の3つの要因によって決定されることを示す。
論文 参考訳(メタデータ) (2020-02-20T15:00:54Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。