論文の概要: Explanation as Question Answering based on a Task Model of the Agent's
Design
- arxiv url: http://arxiv.org/abs/2206.05030v1
- Date: Wed, 8 Jun 2022 08:52:47 GMT
- ステータス: 処理完了
- システム内更新日: 2022-06-13 15:23:02.362190
- Title: Explanation as Question Answering based on a Task Model of the Agent's
Design
- Title(参考訳): エージェント設計のタスクモデルに基づく質問応答としての説明
- Authors: Ashok Goel, Harshvardhan Sikka, Vrinda Nandan, Jeonghyun Lee, Matt
Lisle, Spencer Rugaber
- Abstract要約: 我々は、人間中心とデザインに基づくAIエージェントにおける説明の生成に対するスタンスを説明する。
エージェントのタスクと目標を明確に定義するタスクメソッド-知識モデルを通じてエージェントのフォーカスをキャプチャする。
SkillsyncというAIエージェントは、企業や大学を労働者のリスキルに結びつけるものだ。
- 参考スコア(独自算出の注目度): 1.03905835096574
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We describe a stance towards the generation of explanations in AI agents that
is both human-centered and design-based. We collect questions about the working
of an AI agent through participatory design by focus groups. We capture an
agent's design through a Task-Method-Knowledge model that explicitly specifies
the agent's tasks and goals, as well as the mechanisms, knowledge and
vocabulary it uses for accomplishing the tasks. We illustrate our approach
through the generation of explanations in Skillsync, an AI agent that links
companies and colleges for worker upskilling and reskilling. In particular, we
embed a question-answering agent called AskJill in Skillsync, where AskJill
contains a TMK model of Skillsync's design. AskJill presently answers
human-generated questions about Skillsync's tasks and vocabulary, and thereby
helps explain how it produces its recommendations.
- Abstract(参考訳): 我々は、人間中心とデザインに基づくAIエージェントにおける説明の生成に対するスタンスを説明する。
フォーカスグループによる参加型デザインを通じて,aiエージェントの作業に関する質問を収集する。
我々は、エージェントのタスクと目標を明確に指定したタスクメソッド知識モデルと、タスクを達成するために使用するメカニズム、知識、語彙を通してエージェントの設計をキャプチャする。
当社のアプローチは、労働者のスキルアップとリスキルのために企業と大学をリンクするAIエージェントであるSkillsyncでの説明の生成を通じて説明します。
特に、AskJillという質問応答エージェントをSkillsyncに埋め込み、そこでAskJillはSkillsyncの設計のTMKモデルを含む。
AskJillは現在、Skillsyncのタスクと語彙に関する人間による質問に答え、どのようにリコメンデーションを生成するかを説明するのに役立っている。
関連論文リスト
- AgentKit: Structured LLM Reasoning with Dynamic Graphs [91.09525140733987]
多機能エージェントのための直感的なLCMプロンプトフレームワーク(AgentKit)を提案する。
AgentKitは、単純な自然言語プロンプトから複雑な"思考プロセス"を明示的に構築するための統一されたフレームワークを提供する。
論文 参考訳(メタデータ) (2024-04-17T15:40:45Z) - Tell Me More! Towards Implicit User Intention Understanding of Language
Model Driven Agents [110.25679611755962]
現在の言語モデル駆動エージェントは、しばしば効果的なユーザ参加のメカニズムを欠いている。
Intention-in-Interaction (IN3) は明示的なクエリを通してユーザの暗黙の意図を検査するための新しいベンチマークである。
私たちは、タスクの曖昧さを積極的に評価し、ユーザの意図を問う強力なモデルであるMistral-Interactを経験的に訓練し、それらを実行可能な目標へと洗練させます。
論文 参考訳(メタデータ) (2024-02-14T14:36:30Z) - Designing a Communication Bridge between Communities: Participatory
Design for a Question-Answering AI Agent [1.101002667958165]
我々は,質問応答エージェントであるAskJillの開発に必要な要件を抽出するために,参加型設計のバリエーションを使用した。
以上の結果から,2つのSkillsyncユーザコミュニティは,AskJillが提供すべき重要な機能として,用語的支援を認識していたことが示唆された。
論文 参考訳(メタデータ) (2023-08-01T19:51:54Z) - Information Design in Multi-Agent Reinforcement Learning [61.140924904755266]
強化学習(Reinforcement Learning、RL)は、人間の幼児や動物が環境から学ぶ方法にインスパイアされている。
計算経済学の研究は、他者に直接影響を与える2つの方法を蒸留する: 有形物(機械設計)の提供と情報(情報設計)の提供である。
論文 参考訳(メタデータ) (2023-05-08T07:52:15Z) - From Black Boxes to Conversations: Incorporating XAI in a Conversational Agent [2.899704155417792]
社会科学の研究は、説明は人間と人間の説明と同様、会話的であるべきだと述べている。
エージェントの標準設計を用いて,XAIを対話エージェントに組み込む方法を示す。
我々は、品質管理されたパラフレーズによって拡張されたXAI質問銀行を構築し、ユーザの情報ニーズを理解する。
論文 参考訳(メタデータ) (2022-09-06T15:01:06Z) - Towards Collaborative Question Answering: A Preliminary Study [63.91687114660126]
我々は、モデレーターによって調整された複数の専門家エージェントが協力して、単一のエージェントだけでは答えられない質問に答える新しいQAタスクCollabQAを提案する。
専門家に分散可能な,大規模な知識グラフの合成データセットを作成する。
専門家が完璧で均一でない限り,コラボレーション構造を導入することなく,この問題が解決可能であることを示す。
論文 参考訳(メタデータ) (2022-01-24T14:27:00Z) - Explanation as Question Answering based on Design Knowledge [0.0]
本稿では,対話型学習環境(VERA)にユーザガイドを利用する質問応答エージェント(AskJill)について述べる。
VERAにおけるAskJillの予備的評価について報告する。
論文 参考訳(メタデータ) (2021-12-16T06:07:19Z) - Are We On The Same Page? Hierarchical Explanation Generation for
Planning Tasks in Human-Robot Teaming using Reinforcement Learning [0.0]
我々は、エージェント生成の説明は、人間のチームメイトが受信者の認知負荷を維持するために望む詳細のレベルに合わせて抽象化されるべきであると主張します。
階層的な説明は, 認知負荷を低減しつつ, 作業性能と行動解釈性を向上することを示した。
論文 参考訳(メタデータ) (2020-12-22T02:14:52Z) - Understanding Unnatural Questions Improves Reasoning over Text [54.235828149899625]
生テキストに対する複雑な質問応答(CQA)は難しい課題である。
効果的なCQAモデルを学ぶには、大量の人間が注釈付けしたデータが必要である。
我々は、自然の人間生成の質問を非自然の機械生成の質問に投影することで、高品質なプログラマ(パーザ)を学ぶという課題に対処する。
論文 参考訳(メタデータ) (2020-10-19T10:22:16Z) - RMM: A Recursive Mental Model for Dialog Navigation [102.42641990401735]
言語誘導ロボットは、人間の質問と答えの理解の両方を行なわなければならない。
心の理論から着想を得た再帰的メンタルモデル(RMM)を提案する。
我々は、RMMが新しい環境へのより良い一般化を可能にすることを実証する。
論文 参考訳(メタデータ) (2020-05-02T06:57:14Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。