論文の概要: Designing Closed-Loop Models for Task Allocation
- arxiv url: http://arxiv.org/abs/2305.19864v1
- Date: Wed, 31 May 2023 13:57:56 GMT
- ステータス: 処理完了
- システム内更新日: 2023-06-01 16:23:36.681713
- Title: Designing Closed-Loop Models for Task Allocation
- Title(参考訳): タスク割り当てのためのクローズドループモデルの設計
- Authors: Vijay Keswani, L. Elisa Celis, Krishnaram Kenthapadi, Matthew Lease
- Abstract要約: 我々は、ブートストラップモデルトレーニングと人間とタスクの類似性に関する弱い事前情報を利用する。
このような弱い事前の使用は、人間の意思決定者が誤りを犯したりバイアスを受けたりしても、タスク割り当て精度を向上させることができることを示す。
- 参考スコア(独自算出の注目度): 36.04165658325371
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Automatically assigning tasks to people is challenging because human
performance can vary across tasks for many reasons. This challenge is further
compounded in real-life settings in which no oracle exists to assess the
quality of human decisions and task assignments made. Instead, we find
ourselves in a "closed" decision-making loop in which the same fallible human
decisions we rely on in practice must also be used to guide task allocation.
How can imperfect and potentially biased human decisions train an accurate
allocation model? Our key insight is to exploit weak prior information on
human-task similarity to bootstrap model training. We show that the use of such
a weak prior can improve task allocation accuracy, even when human
decision-makers are fallible and biased. We present both theoretical analysis
and empirical evaluation over synthetic data and a social media toxicity
detection task. Results demonstrate the efficacy of our approach.
- Abstract(参考訳): 人に対するタスクの割り当ては、人のパフォーマンスがさまざまな理由で異なるため、難しい。
この課題は、人間の決定やタスクの割り当ての質を評価するためのオラクルが存在しない現実の環境でさらに複雑になる。
その代わり、私たちが実際に頼りにしているのと同じ誤りのある人間の決定をタスク割り当てのガイドとして使う必要がある、"閉じた"意思決定ループに自分自身を見出すのです。
不完全でバイアスのある人間の決定はどのように正確なアロケーションモデルを訓練するか?
私たちの重要な洞察は、ブートストラップモデルトレーニングとヒューマンタスクの類似性に関する弱い事前情報を活用することです。
人間の意思決定者が誤りや偏りがある場合でも,このような弱い先行手法を用いることでタスク割り当ての正確性が向上することを示す。
本稿では,合成データに対する理論的解析と経験的評価,およびソーシャルメディア毒性検出タスクについて述べる。
結果は我々のアプローチの有効性を示している。
関連論文リスト
- Towards Objective and Unbiased Decision Assessments with LLM-Enhanced Hierarchical Attention Networks [6.520709313101523]
本研究では,人的専門家による高い意思決定過程における認知バイアスの識別について検討する。
人間の判断を超越したバイアス対応AI拡張ワークフローを提案する。
実験では,提案モデルとエージェントワークフローの両方が,人間の判断と代替モデルの両方において有意に改善されている。
論文 参考訳(メタデータ) (2024-11-13T10:42:11Z) - Modeling Boundedly Rational Agents with Latent Inference Budgets [56.24971011281947]
エージェントの計算制約を明示的にモデル化する潜在推論予算モデル(L-IBM)を導入する。
L-IBMは、最適なアクターの多様な集団のデータを使ってエージェントモデルを学ぶことができる。
我々は,L-IBMが不確実性の下での意思決定のボルツマンモデルに適合しているか,あるいは上回っていることを示す。
論文 参考訳(メタデータ) (2023-12-07T03:55:51Z) - Optimising Human-AI Collaboration by Learning Convincing Explanations [62.81395661556852]
本研究では,人間による意思決定によって安全を保ちながら協調的なシステムを構築する手法を提案する。
Ardentは、説明のための個人の好みに適応することで、効率的で効果的な意思決定を可能にする。
論文 参考訳(メタデータ) (2023-11-13T16:00:16Z) - Can Foundation Models Watch, Talk and Guide You Step by Step to Make a
Cake? [62.59699229202307]
AIの進歩にもかかわらず、インタラクティブなタスクガイダンスシステムの開発は依然として大きな課題である。
我々は、人間のユーザと人間のインストラクターとの自然なインタラクションに基づいて、新しいマルチモーダルベンチマークデータセット、ウォッチ、トーク、ガイド(WTaG)を作成しました。
いくつかの基礎モデルを活用して、これらのモデルが認識可能なタスクガイダンスに迅速に適応できるかを調査した。
論文 参考訳(メタデータ) (2023-11-01T15:13:49Z) - Assisting Human Decisions in Document Matching [52.79491990823573]
我々は,意思決定者のパフォーマンスを向上する支援情報の種類を評価するためのプロキシマッチングタスクを考案した。
ブラックボックスモデルによる説明を提供することで,マッチング作業におけるユーザの精度が低下することが判明した。
一方,タスク固有のデシラタに密接に対応するように設計されたカスタムメソッドは,ユーザのパフォーマンス向上に有効であることが判明した。
論文 参考訳(メタデータ) (2023-02-16T17:45:20Z) - Robust Planning for Human-Robot Joint Tasks with Explicit Reasoning on
Human Mental State [2.8246074016493457]
我々は,人間ロボットチームが達成するための既知の目的を持った共有タスクを与えられる,人間に意識したタスク計画問題を考える。
近年のアプローチでは、ロボットが両方のエージェント(共有された)タスクを計画する独立した合理的エージェントのチームとしてそれをモデル化している。
本稿では,実行時の可観測性規約をモデル化し,使用するための新しいアプローチについて述べる。
論文 参考訳(メタデータ) (2022-10-17T09:21:00Z) - Investigations of Performance and Bias in Human-AI Teamwork in Hiring [30.046502708053097]
AIによる意思決定では、効果的なハイブリッドチームワーク(ヒューマンAI)は、AIのパフォーマンスにのみ依存するものではない。
本研究では,モデルの予測性能とバイアスの両方が,推薦型意思決定タスクにおいてどのように人間に伝達されるかを検討する。
論文 参考訳(メタデータ) (2022-02-21T17:58:07Z) - Model-agnostic Fits for Understanding Information Seeking Patterns in
Humans [0.0]
不確実な意思決定タスクでは、人間はそのタスクに関連する情報を探し、統合し、行動する際、特徴的なバイアスを示す。
ここでは,これらのバイアスを総合的に測定・分類した,大規模に収集した先行設計実験のデータを再検討した。
これらのバイアスを集約的に再現するディープラーニングモデルを設計し、個々の行動の変化を捉えます。
論文 参考訳(メタデータ) (2020-12-09T04:34:58Z) - Hierarchical Reinforcement Learning as a Model of Human Task
Interleaving [60.95424607008241]
我々は、強化学習によって駆動される監督制御の階層モデルを開発する。
このモデルは、タスクインターリービングの既知の経験的効果を再現する。
その結果、階層的RLがタスクインターリービングのもっともらしいモデルとして支持された。
論文 参考訳(メタデータ) (2020-01-04T17:53:28Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。