論文の概要: Trustworthy and Explainable Decision-Making for Workforce allocation
- arxiv url: http://arxiv.org/abs/2412.10272v1
- Date: Fri, 13 Dec 2024 16:46:13 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-12-16 15:03:09.208802
- Title: Trustworthy and Explainable Decision-Making for Workforce allocation
- Title(参考訳): 労働力配分のための信頼性と説明可能な意思決定
- Authors: Guillaume Povéda, Ryma Boumazouza, Andreas Strahl, Mark Hall, Santiago Quintana-Amate, Nahum Alvarez, Ignace Bleukx, Dimos Tsouros, Hélène Verhaeghe, Tias Guns,
- Abstract要約: 本稿では、労働力配分のための意思決定ツールの開発に焦点をあてた進行中のプロジェクトについて述べる。
私たちの目標は、スケジュールされたタスクへのチームの配置を最適化するだけでなく、その決定に対して明確で理解可能な説明を提供するシステムを作ることです。
このツールは、Human-in-the-loopメカニズムを組み込むことで、ユーザの信頼を高め、対話的なコンフリクト解決を促進することを目的としている。
- 参考スコア(独自算出の注目度): 5.329471304736775
- License:
- Abstract: In industrial contexts, effective workforce allocation is crucial for operational efficiency. This paper presents an ongoing project focused on developing a decision-making tool designed for workforce allocation, emphasising the explainability to enhance its trustworthiness. Our objective is to create a system that not only optimises the allocation of teams to scheduled tasks but also provides clear, understandable explanations for its decisions, particularly in cases where the problem is infeasible. By incorporating human-in-the-loop mechanisms, the tool aims to enhance user trust and facilitate interactive conflict resolution. We implemented our approach on a prototype tool/digital demonstrator intended to be evaluated on a real industrial scenario both in terms of performance and user acceptability.
- Abstract(参考訳): 産業の文脈では、効率的な労働力配分は運用効率に不可欠である。
本稿では、労働力配分のための意思決定ツールの開発に焦点をあて、信頼性を高めるための説明性を強調したプロジェクトについて述べる。
我々の目標は、スケジュールされたタスクへのチームの配置を最適化するだけでなく、その決定に対して明確で理解可能な説明を提供するシステムを作ることです。
このツールは、Human-in-the-loopメカニズムを組み込むことで、ユーザの信頼を高め、対話的なコンフリクト解決を促進することを目的としている。
提案手法は,実際の産業シナリオにおいて,性能とユーザ受け入れ性の両方の観点から評価することを目的としたプロトタイプツール/デジタル実証装置に実装した。
関連論文リスト
- Know Where You're Uncertain When Planning with Multimodal Foundation Models: A Formal Framework [54.40508478482667]
認識と計画生成の不確実性を解消し、定量化し、緩和する包括的枠組みを提案する。
本稿では,知覚と意思決定の独特な性質に合わせた手法を提案する。
この不確実性分散フレームワークは, 変動率を最大40%削減し, タスク成功率をベースラインに比べて5%向上させることを示した。
論文 参考訳(メタデータ) (2024-11-03T17:32:00Z) - Decision-Aware Predictive Model Selection for Workforce Allocation [0.27309692684728615]
本稿では、機械学習を利用して労働者の行動を予測する新しいフレームワークを提案する。
本手法では,作業者の振舞いを表現するための最適予測モデルを,その作業員の割り当て方法によって決定する。
本稿では,予測モデル選択と作業員割り当てを統合した意思決定対応最適化フレームワークを提案する。
論文 参考訳(メタデータ) (2024-10-10T13:59:43Z) - Tell Me More! Towards Implicit User Intention Understanding of Language
Model Driven Agents [110.25679611755962]
現在の言語モデル駆動エージェントは、しばしば効果的なユーザ参加のメカニズムを欠いている。
Intention-in-Interaction (IN3) は明示的なクエリを通してユーザの暗黙の意図を検査するための新しいベンチマークである。
私たちは、タスクの曖昧さを積極的に評価し、ユーザの意図を問う強力なモデルであるMistral-Interactを経験的に訓練し、それらを実行可能な目標へと洗練させます。
論文 参考訳(メタデータ) (2024-02-14T14:36:30Z) - Personalized Decision Supports based on Theory of Mind Modeling and
Explainable Reinforcement Learning [0.9071985476473737]
我々は、心の理論(ToM)モデリングと説明可能な強化学習(XRL)を組み合わせた、パーソナライズされた意思決定支援システムを提案する。
提案システムは,エンドユーザが容易に解釈可能な,正確でパーソナライズされた介入を生成する。
論文 参考訳(メタデータ) (2023-12-13T00:37:17Z) - Rational Decision-Making Agent with Internalized Utility Judgment [91.80700126895927]
大規模言語モデル(LLM)は目覚ましい進歩を示し、従来のNLPアプリケーションを超えて複雑な多段階決定タスクを実行できるエージェントにLLMを開発するための重要な努力を惹きつけている。
本稿では,RadAgentを提案する。このRadAgentは,経験探索とユーティリティ学習を含む反復的なフレームワークを通じて,合理性の発展を促進する。
ToolBenchデータセットの実験結果は、RadAgentがベースラインよりも優れていることを示している。
論文 参考訳(メタデータ) (2023-08-24T03:11:45Z) - Assisting Human Decisions in Document Matching [52.79491990823573]
我々は,意思決定者のパフォーマンスを向上する支援情報の種類を評価するためのプロキシマッチングタスクを考案した。
ブラックボックスモデルによる説明を提供することで,マッチング作業におけるユーザの精度が低下することが判明した。
一方,タスク固有のデシラタに密接に対応するように設計されたカスタムメソッドは,ユーザのパフォーマンス向上に有効であることが判明した。
論文 参考訳(メタデータ) (2023-02-16T17:45:20Z) - Explainability's Gain is Optimality's Loss? -- How Explanations Bias
Decision-making [0.0]
説明は、アルゴリズムと人間の意思決定者とのコミュニケーションを促進するのに役立つ。
因果モデルに関する特徴に基づく説明のセマンティクスは、意思決定者の以前の信念から漏れを引き起こす。
このような違いは、準最適かつ偏った決定結果をもたらす可能性がある。
論文 参考訳(メタデータ) (2022-06-17T11:43:42Z) - A Factor-Based Framework for Decision-Making Competency Self-Assessment [1.3670071336891754]
我々は,機械的自己自信の観点から,簡潔な人間理解能力の自己評価を生成するための枠組みを開発する。
アルゴリズム計画のための確率論的メタ推論と不確実性の下での意思決定のいくつかの側面を組み合わせて、新しい一般化可能な自己自信因子のセットに到達する。
論文 参考訳(メタデータ) (2022-03-22T18:19:10Z) - Inverse Online Learning: Understanding Non-Stationary and Reactionary
Policies [79.60322329952453]
エージェントが意思決定を行う方法の解釈可能な表現を開発する方法を示す。
一連の軌跡に基づく意思決定プロセスを理解することにより,このオンライン学習問題に対して,政策推論問題を逆問題とみなした。
本稿では、エージェントがそれらを更新するプロセスと並行して、その影響を遡及的に推定する実用的なアルゴリズムを提案する。
UNOSの臓器提供受諾決定の分析に応用することで、我々のアプローチは意思決定プロセスを管理する要因や時間とともにどのように変化するかに、貴重な洞察をもたらすことができることを実証する。
論文 参考訳(メタデータ) (2022-03-14T17:40:42Z) - Outcome-Driven Reinforcement Learning via Variational Inference [95.82770132618862]
我々は、報酬を最大化する問題ではなく、望ましい結果を達成するための行動を推測する問題として、強化学習に関する新たな視点について論じる。
結果として得られる結果指向推論の問題を解決するため, 定型的報酬関数を導出する新しい変分推論定式を制定する。
我々は,この手法が報酬機能の設計を不要とし,効果的なゴール指向行動へと導くことを実証的に示す。
論文 参考訳(メタデータ) (2021-04-20T18:16:21Z) - Tradeoff-Focused Contrastive Explanation for MDP Planning [7.929642367937801]
実際の計画の応用では、計画エージェントの決定は、競合する目標間の複雑なトレードオフを伴う可能性がある。
エンドユーザは、目的値に基づいて、エージェントが特定の計画ソリューションを決定する理由を理解することは困難である。
本稿では,マルチオブジェクトのMDP計画エージェントが,そのトレードオフの合理性を伝達する手法として,その意思決定を説明できるアプローチを提案する。
論文 参考訳(メタデータ) (2020-04-27T17:17:58Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。