論文の概要: A Planning-Based Explainable Collaborative Dialogue System
- arxiv url: http://arxiv.org/abs/2302.09646v1
- Date: Sun, 19 Feb 2023 18:29:54 GMT
- ステータス: 処理完了
- システム内更新日: 2023-02-21 17:24:07.383200
- Title: A Planning-Based Explainable Collaborative Dialogue System
- Title(参考訳): 計画に基づく説明可能な対話システム
- Authors: Philip R. Cohen and Lucian Galescu
- Abstract要約: Evaはマルチモーダルな会話システムで、ユーザが協調対話を通じてドメイン目標を達成するのに役立つ。
このシステムは,ユーザの意図を推測し,それらの目標を達成するための計画を立て,障害が存在するかどうかを検出し,それらを克服するか,より高い目標を達成するための計画を立てる。
- 参考スコア(独自算出の注目度): 6.643763450137908
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Eva is a multimodal conversational system that helps users to accomplish
their domain goals through collaborative dialogue. The system does this by
inferring users' intentions and plans to achieve those goals, detects whether
obstacles are present, finds plans to overcome them or to achieve higher-level
goals, and plans its actions, including speech acts,to help users accomplish
those goals. In doing so, the system maintains and reasons with its own
beliefs, goals and intentions, and explicitly reasons about those of its user.
Belief reasoning is accomplished with a modal Horn-clause meta-interpreter. The
planning and reasoning subsystems obey the principles of persistent goals and
intentions, including the formation and decomposition of intentions to perform
complex actions, as well as the conditions under which they can be given up. In
virtue of its planning process, the system treats its speech acts just like its
other actions -- physical acts affect physical states, digital acts affect
digital states, and speech acts affect mental and social states. This general
approach enables Eva to plan a variety of speech acts including requests,
informs, questions, confirmations, recommendations, offers, acceptances,
greetings, and emotive expressions. Each of these has a formally specified
semantics which is used during the planning and reasoning processes. Because it
can keep track of different users' mental states, it can engage in multi-party
dialogues. Importantly, Eva can explain its utterances because it has created a
plan standing behind each of them. Finally, Eva employs multimodal input and
output, driving an avatar that can perceive and employ facial and head
movements along with emotive speech acts.
- Abstract(参考訳): Evaはマルチモーダルな会話システムで、ユーザが協調対話を通じてドメイン目標を達成するのに役立つ。
このシステムは,ユーザの意図を推測し,それらの目標を達成するための計画を立て,障害が存在するかどうかを検出し,それらを克服するか,より高い目標を達成するための計画を立てる。
そうすることで、システムは、自身の信念、目標、意図、およびユーザのそれに対する明確な理由と理由を維持し、理性を持つようになる。
信念推論は、Hhorn-clauseメタ解釈を用いて達成される。
計画と推論サブシステムは、複雑な行動を行う意図の形成と分解を含む永続的な目標と意図の原則と、それらを放棄できる条件に従う。
物理的な行為は物理的状態に影響し、デジタル行為はデジタル状態に影響し、スピーチ行為は精神的および社会的状態に影響する。
この一般的なアプローチにより、Evaは、リクエスト、通知、質問、確認、レコメンデーション、オファー、受け入れ、挨拶、エモーティブ表現を含む様々なスピーチ行為を計画できる。
これらはそれぞれ、計画と推論プロセスで使用される、正式に定義された意味論を持っている。
異なるユーザーの精神状態を追跡することができるため、多人数対話を行うことができる。
重要なのは、evaがそれぞれの背後にある計画を作ったため、その発声を説明できることだ。
最後に、Evaはマルチモーダル入力と出力を使用し、感情的な音声行為とともに顔と頭の動きを知覚し、活用できるアバターを駆動する。
関連論文リスト
- Dialogue Action Tokens: Steering Language Models in Goal-Directed Dialogue with a Multi-Turn Planner [51.77263363285369]
本稿では,対話行動トークンと呼ばれる言語モデルエージェントを用いて,目標指向の対話を計画する手法を提案する。
中心となる考え方は、各発話をアクションとして扱うことで、強化学習のような既存のアプローチを適用することができるゲームに対話を変換することである。
論文 参考訳(メタデータ) (2024-06-17T18:01:32Z) - Symbolic Planning and Code Generation for Grounded Dialogue [78.48668501764385]
大規模言語モデル(LLM)は、テキストとコードの両方の処理と生成に優れる。
本稿では,LLMをシンボリックプランナと接地コード実行で構成することで,欠点に対処する,モジュール型で解釈可能な接地対話システムを提案する。
我々のシステムは、人間の評価におけるタスク成功率を最も困難な環境で56%から69%に改善するなど、従来の最先端技術よりも大幅に優れています。
論文 参考訳(メタデータ) (2023-10-26T04:22:23Z) - Enhancing Large Language Model Induced Task-Oriented Dialogue Systems
Through Look-Forward Motivated Goals [76.69419538047813]
ProToDアプローチは、将来の対話行動を予測し、ToDシステムを強化するためにゴール指向の報酬シグナルを組み込む。
本稿では,目標駆動型対話シミュレーションに基づくToDシステム評価手法を提案する。
また,MultiWoZ 2.1データセットを用いた実験により,データの10%しか利用せず,優れた性能が得られることを示した。
論文 参考訳(メタデータ) (2023-09-16T10:56:00Z) - Towards a Progression-Aware Autonomous Dialogue Agent [14.09591070450606]
本稿では,対話エージェントが対話の進行を望ましい結果から遠ざかることができる枠組みを提案する。
本フレームワークは,(1)「グローバル」対話状態(GDS)の概念,(2)会話の軌跡から計算したタスク固有進行関数(PF),(3)エージェントが進行信号を使用して次の応答を選択する対話ロールアウトに基づく計画機構の3つの重要な要素から構成される。
論文 参考訳(メタデータ) (2022-05-07T17:37:43Z) - Towards Large-Scale Interpretable Knowledge Graph Reasoning for Dialogue
Systems [109.16553492049441]
よりスケーラブルで一般化可能な対話システムに知識推論機能を組み込む新しい手法を提案する。
我々の知識を最大限に活用するために、変圧器モデルが微分可能な知識グラフを解析して応答を生成するのは、これが初めてである。
論文 参考訳(メタデータ) (2022-03-20T17:51:49Z) - Rethinking Explainability as a Dialogue: A Practitioner's Perspective [57.87089539718344]
医師、医療専門家、政策立案者に対して、説明を求めるニーズと欲求について尋ねる。
本研究は, 自然言語対話の形での対話的説明を, 意思決定者が強く好むことを示唆する。
これらのニーズを考慮して、インタラクティブな説明を設計する際に、研究者が従うべき5つの原則を概説する。
論文 参考訳(メタデータ) (2022-02-03T22:17:21Z) - UniDS: A Unified Dialogue System for Chit-Chat and Task-oriented
Dialogues [59.499965460525694]
上記の2つのスキルを備えた統合対話システム(UniDS)を提案する。
我々は、チャットとタスク指向の対話の両方に対応可能な統合対話データスキーマを設計する。
我々は、事前訓練されたチャット対話モデルから混合対話データでUniDSを訓練する。
論文 参考訳(メタデータ) (2021-10-15T11:56:47Z) - Argument Schemes and Dialogue for Explainable Planning [3.2741749231824904]
本論文では,AI計画の領域で説明を行うための議論スキームに基づくアプローチを提案する。
計画とその鍵となる要素を説明するための新たな議論スキームを提案する。
また、対話型方言説明のための議論スキームとクリティカルな質問を用いた新しい対話システムも提示する。
論文 参考訳(メタデータ) (2021-01-07T17:43:12Z) - Learning to Plan and Realize Separately for Open-Ended Dialogue Systems [7.790365778349838]
生成を、計画と実現の2つのフェーズに分離します。
プロセスから計画と実現への分離は、エンドツーエンドのアプローチよりも優れていることを実証します。
論文 参考訳(メタデータ) (2020-09-26T02:31:42Z) - Distributed Structured Actor-Critic Reinforcement Learning for Universal
Dialogue Management [29.57382819573169]
我々は,ユーザに対応する対話行動を選択するポリシーの策定に重点を置いている。
逐次的なシステム決定プロセスは、部分的に観察可能なマルコフ決定プロセスに抽象化することができる。
過去数年間、ニューラルネットワーク(NN)を関数近似器として利用するディープ強化学習(DRL)アルゴリズムが数多く存在する。
論文 参考訳(メタデータ) (2020-09-22T05:39:31Z) - Policy-Driven Neural Response Generation for Knowledge-Grounded Dialogue
Systems [18.375851346138155]
Seq2seqのニューラルレスポンス生成アプローチは、生成されたレスポンスの内容やスタイルを制御するための明確なメカニズムを持っていない。
本稿では、対話ポリシーを用いて、アクションプランの形式でターゲット応答の内容とスタイルを計画する。
文レベルで動作させる基本対話ポリシーは,ターンレベル生成よりも応答性がよいことを示す。
論文 参考訳(メタデータ) (2020-05-26T06:09:57Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。