論文の概要: `Why didn't you allocate this task to them?' Negotiation-Aware
Explicable Task Allocation and Contrastive Explanation Generation
- arxiv url: http://arxiv.org/abs/2002.01640v4
- Date: Thu, 25 May 2023 21:00:57 GMT
- ステータス: 処理完了
- システム内更新日: 2023-05-30 01:19:00.117241
- Title: `Why didn't you allocate this task to them?' Negotiation-Aware
Explicable Task Allocation and Contrastive Explanation Generation
- Title(参考訳): 「なぜこの仕事を彼らに割り当てなかったのですか。」
ネゴシエーション・アウェアなタスク割当と対比的説明生成
- Authors: Zahra Zahedi, Sailik Sengupta, Subbarao Kambhampati
- Abstract要約: 交渉をシミュレートする中央人工知能タスク割り当て(AITA)を提案する。
チームメンバーが提案されたアロケーションに不満を抱いている場合、そのアロケーションに反事実を使って疑問を呈することができる。
提案手法を用いて提案したアロケーションは, 多数派に公平に見え, 反事実が生じると, 説明が容易に理解され, 納得できることを示す。
- 参考スコア(独自算出の注目度): 19.265913720022574
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Task allocation is an important problem in multi-agent systems. It becomes
more challenging when the team-members are humans with imperfect knowledge
about their teammates' costs and the overall performance metric. In this paper,
we propose a centralized Artificial Intelligence Task Allocation (AITA) that
simulates a negotiation and produces a negotiation-aware explicable task
allocation. If a team-member is unhappy with the proposed allocation, we allow
them to question the proposed allocation using a counterfactual. By using parts
of the simulated negotiation, we are able to provide contrastive explanations
that provide minimum information about other's cost to refute their foil. With
human studies, we show that (1) the allocation proposed using our method
appears fair to the majority, and (2) when a counterfactual is raised,
explanations generated are easy to comprehend and convincing. Finally, we
empirically study the effect of different kinds of incompleteness on the
explanation-length and find that underestimation of a teammate's costs often
increases it.
- Abstract(参考訳): タスク割り当てはマルチエージェントシステムにおいて重要な問題である。
チームメンバーがチームメイトのコストと全体的なパフォーマンス指標について不完全な知識を持つ人間である場合、より難しくなります。
本稿では,交渉をシミュレートした集中型人工知能タスク割当(AITA)を提案し,交渉に配慮した説明可能なタスク割当を生成する。
チームメンバーが提案された割り当てに不満であれば、反事実を使って、提案された割り当てに疑問を投げかけることができます。
模擬交渉の一部を利用することで、他人のホイルを補充するコストについて最小限の情報を提供する対照的な説明を行うことができる。
人間の研究では,(1)本手法を用いて提案した割当が多数派に公平に現れ,(2)反事実が生じると,その説明が容易に理解され,納得できることを示す。
最後に、異なる種類の不完全性が説明長に及ぼす影響を実証的に研究し、チームメイトのコストの過小評価がしばしばそれを増加させることを見出します。
関連論文リスト
- Clarify When Necessary: Resolving Ambiguity Through Interaction with LMs [58.620269228776294]
そこで本稿では,ユーザに対して,あいまいさを解消するためのタスク非依存のフレームワークを提案する。
我々は3つのNLPアプリケーション(質問応答、機械翻訳、自然言語推論)にまたがるシステムを評価する。
インテントシムは堅牢であり、幅広いNLPタスクやLMの改善を実証している。
論文 参考訳(メタデータ) (2023-11-16T00:18:50Z) - Be Selfish, But Wisely: Investigating the Impact of Agent Personality in
Mixed-Motive Human-Agent Interactions [24.266490660606497]
セルフプレイのRLは交渉において妥協の価値を学ばないことがわかった。
我々は、多様な個性を持つエージェントを設計し、人間のパートナーとのパフォーマンスを分析するために、トレーニング手順を2つの新しい方法で修正する。
どちらの手法も有望性を示すが、自尊心のあるエージェントは、自己と交渉相手の両方に価値を生み出すことを暗黙的に学習することで、自身のパフォーマンスを最大化し、歩行を回避し、他の変種よりも優れた性能を発揮する。
論文 参考訳(メタデータ) (2023-10-22T20:31:35Z) - Mastering the Task of Open Information Extraction with Large Language
Models and Consistent Reasoning Environment [52.592199835286394]
オープン情報抽出(OIE)は、自然文から客観的な構造化された知識を抽出することを目的としている。
大規模言語モデル(LLM)は、テキスト内学習能力に優れています。
論文 参考訳(メタデータ) (2023-10-16T17:11:42Z) - Language of Bargaining [60.218128617765046]
我々は、言語の使用が二国間交渉をどのように形成するかを研究するための新しいデータセットを構築した。
我々の研究は、交渉の結果を予測する言語信号も明らかにしている。
論文 参考訳(メタデータ) (2023-06-12T13:52:01Z) - Explanation Selection Using Unlabeled Data for Chain-of-Thought
Prompting [80.9896041501715]
非専門家によって書かれたオフ・ザ・シェルフの説明のように、タスクのために"チューニング"されていない説明は、中途半端なパフォーマンスをもたらす可能性がある。
本稿では,ブラックボックス方式で説明拡散プロンプトを最適化する方法の課題に対処する。
論文 参考訳(メタデータ) (2023-02-09T18:02:34Z) - Explanations Can Reduce Overreliance on AI Systems During
Decision-Making [12.652229245306671]
我々は、AIの説明に携わるか否かを戦略的に選択し、AIの説明が過信を減少させるシナリオが存在することを示した。
我々は迷路タスクのコストと利益を操作し、参加者は迷路の出口を見つけるためにシミュレーションAIと協力する。
文献で見いだされた無効効果のいくつかは、AIの予測を検証するコストを十分に削減していない説明によるものである可能性が示唆された。
論文 参考訳(メタデータ) (2022-12-13T18:59:31Z) - Multi-Agent Neural Rewriter for Vehicle Routing with Limited Disclosure
of Costs [65.23158435596518]
チームのマルコフゲームとして、部分的に観測可能なコストでマルチサイクルルーティング問題を解く。
我々のマルチエージェント強化学習アプローチである、いわゆるマルチエージェントニューラルリライタは、1エージェントニューラルリライタを利用して、反復的に書き換えるソリューションによって問題を解決する。
論文 参考訳(メタデータ) (2022-06-13T09:17:40Z) - Prompting Contrastive Explanations for Commonsense Reasoning Tasks [74.7346558082693]
大規模事前学習言語モデル(PLM)は、常識推論タスクにおいて、ほぼ人間に近い性能を達成することができる。
人間の解釈可能な証拠を生成するために、同じモデルを使う方法を示す。
論文 参考訳(メタデータ) (2021-06-12T17:06:13Z) - Counterfactual Explanations Can Be Manipulated [40.78019510022835]
反事実的説明の脆弱性を記述した最初のフレームワークを紹介し,その操作方法を示す。
反事実的説明は、それらが堅牢でないことを示す小さな摂動の下で、大きく異なる反事実に収束する可能性がある。
これらのモデルが、監査者に対して公正に見せながら、データ内の特定のサブグループに対して、不公平に低コストなリコースを提供する方法について説明する。
論文 参考訳(メタデータ) (2021-06-04T18:56:15Z) - Are We On The Same Page? Hierarchical Explanation Generation for
Planning Tasks in Human-Robot Teaming using Reinforcement Learning [0.0]
我々は、エージェント生成の説明は、人間のチームメイトが受信者の認知負荷を維持するために望む詳細のレベルに合わせて抽象化されるべきであると主張します。
階層的な説明は, 認知負荷を低減しつつ, 作業性能と行動解釈性を向上することを示した。
論文 参考訳(メタデータ) (2020-12-22T02:14:52Z) - Negotiating Team Formation Using Deep Reinforcement Learning [32.066083116314815]
深層強化学習を用いてチームを交渉・形成するための訓練エージェントのための枠組みを提案する。
我々は,非空間的および空間的に拡張されたチーム・フォーム交渉環境に対するアプローチを評価した。
論文 参考訳(メタデータ) (2020-10-20T15:41:23Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。