論文の概要: A Planning-Based Explainable Collaborative Dialogue System
- arxiv url: http://arxiv.org/abs/2302.09646v1
- Date: Sun, 19 Feb 2023 18:29:54 GMT
- ステータス: 処理完了
- システム内更新日: 2023-02-21 17:24:07.383200
- Title: A Planning-Based Explainable Collaborative Dialogue System
- Title(参考訳): 計画に基づく説明可能な対話システム
- Authors: Philip R. Cohen and Lucian Galescu
- Abstract要約: Evaはマルチモーダルな会話システムで、ユーザが協調対話を通じてドメイン目標を達成するのに役立つ。
このシステムは,ユーザの意図を推測し,それらの目標を達成するための計画を立て,障害が存在するかどうかを検出し,それらを克服するか,より高い目標を達成するための計画を立てる。
- 参考スコア(独自算出の注目度): 6.643763450137908
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Eva is a multimodal conversational system that helps users to accomplish
their domain goals through collaborative dialogue. The system does this by
inferring users' intentions and plans to achieve those goals, detects whether
obstacles are present, finds plans to overcome them or to achieve higher-level
goals, and plans its actions, including speech acts,to help users accomplish
those goals. In doing so, the system maintains and reasons with its own
beliefs, goals and intentions, and explicitly reasons about those of its user.
Belief reasoning is accomplished with a modal Horn-clause meta-interpreter. The
planning and reasoning subsystems obey the principles of persistent goals and
intentions, including the formation and decomposition of intentions to perform
complex actions, as well as the conditions under which they can be given up. In
virtue of its planning process, the system treats its speech acts just like its
other actions -- physical acts affect physical states, digital acts affect
digital states, and speech acts affect mental and social states. This general
approach enables Eva to plan a variety of speech acts including requests,
informs, questions, confirmations, recommendations, offers, acceptances,
greetings, and emotive expressions. Each of these has a formally specified
semantics which is used during the planning and reasoning processes. Because it
can keep track of different users' mental states, it can engage in multi-party
dialogues. Importantly, Eva can explain its utterances because it has created a
plan standing behind each of them. Finally, Eva employs multimodal input and
output, driving an avatar that can perceive and employ facial and head
movements along with emotive speech acts.
- Abstract(参考訳): Evaはマルチモーダルな会話システムで、ユーザが協調対話を通じてドメイン目標を達成するのに役立つ。
このシステムは,ユーザの意図を推測し,それらの目標を達成するための計画を立て,障害が存在するかどうかを検出し,それらを克服するか,より高い目標を達成するための計画を立てる。
そうすることで、システムは、自身の信念、目標、意図、およびユーザのそれに対する明確な理由と理由を維持し、理性を持つようになる。
信念推論は、Hhorn-clauseメタ解釈を用いて達成される。
計画と推論サブシステムは、複雑な行動を行う意図の形成と分解を含む永続的な目標と意図の原則と、それらを放棄できる条件に従う。
物理的な行為は物理的状態に影響し、デジタル行為はデジタル状態に影響し、スピーチ行為は精神的および社会的状態に影響する。
この一般的なアプローチにより、Evaは、リクエスト、通知、質問、確認、レコメンデーション、オファー、受け入れ、挨拶、エモーティブ表現を含む様々なスピーチ行為を計画できる。
これらはそれぞれ、計画と推論プロセスで使用される、正式に定義された意味論を持っている。
異なるユーザーの精神状態を追跡することができるため、多人数対話を行うことができる。
重要なのは、evaがそれぞれの背後にある計画を作ったため、その発声を説明できることだ。
最後に、Evaはマルチモーダル入力と出力を使用し、感情的な音声行為とともに顔と頭の動きを知覚し、活用できるアバターを駆動する。
関連論文リスト
- Enhancing Large Language Model Induced Task-Oriented Dialogue Systems
Through Look-Forward Motivated Goals [76.69419538047813]
ProToDアプローチは、将来の対話行動を予測し、ToDシステムを強化するためにゴール指向の報酬シグナルを組み込む。
本稿では,目標駆動型対話シミュレーションに基づくToDシステム評価手法を提案する。
また,MultiWoZ 2.1データセットを用いた実験により,データの10%しか利用せず,優れた性能が得られることを示した。
論文 参考訳(メタデータ) (2023-09-16T10:56:00Z) - Affective Visual Dialog: A Large-Scale Benchmark for Emotional Reasoning
Based on Visually Grounded Conversations [33.29699005861188]
本稿では,視覚的な会話における感情の形成を理解するためのテストベッドとして,Affective Visual Dialogを紹介した。
この課題には,対話型質問回答,対話型感情予測,感情説明生成という3つのスキルが含まれる。
私たちの重要な貢献は、AffectVisDialと呼ばれる大規模なデータセットの収集です。
論文 参考訳(メタデータ) (2023-08-30T22:50:32Z) - Social Influence Dialogue Systems: A Scoping Survey of the Efforts
Towards Influence Capabilities of Dialogue Systems [50.57882213439553]
社会影響対話システムは、説得、交渉、治療を行うことができる。
これらのスキルを備えた対話システムには、正式な定義やカテゴリは存在しない。
この研究は、この新興地域でのより専用の研究と議論を促すために、社会影響対話システムの包括的参照となる。
論文 参考訳(メタデータ) (2022-10-11T17:57:23Z) - CPED: A Large-Scale Chinese Personalized and Emotional Dialogue Dataset
for Conversational AI [48.67259855309959]
会話型AIのための既存のデータセットのほとんどは、人間の個性や感情を無視している。
CPEDは,中国における大規模パーソナライズされた感情対話データセットである。
CPEDには40のテレビ番組から392人の話者の12K以上の対話が含まれている。
論文 参考訳(メタデータ) (2022-05-29T17:45:12Z) - Helpfulness and Fairness of Task-Oriented Dialogue Systems [35.135740285082356]
本研究では,目標指向対話システムの有用性の計算量について検討する。
本稿では,対話システムの妥当性を測定するために,対話システムの利便性レベルを異なるユーザクエリに適用することを提案する。
論文 参考訳(メタデータ) (2022-05-25T07:58:38Z) - Where to Go for the Holidays: Towards Mixed-Type Dialogs for
Clarification of User Goals [44.19841573840866]
本稿では,人-人-人-混在型ダイアログコーパスを新たに収集する。
5kのダイアログセッションと4つのダイアログタイプと5つのドメインのための168kの発話を含む。
本稿では,新しいPromptベースの連続学習機構を備えた混合型対話モデルを提案する。
論文 参考訳(メタデータ) (2022-04-15T02:30:45Z) - Interacting with Non-Cooperative User: A New Paradigm for Proactive
Dialogue Policy [83.61404191470126]
インタラクティブな環境下でプロアクティブなポリシーを学習できるI-Proという新しいソリューションを提案する。
具体的には,4つの要因からなる学習目標重みを通じてトレードオフを学習する。
実験の結果,I-Proは,有効性と解釈性において,ベースラインを著しく上回っていることがわかった。
論文 参考訳(メタデータ) (2022-04-07T14:11:31Z) - Towards Large-Scale Interpretable Knowledge Graph Reasoning for Dialogue
Systems [109.16553492049441]
よりスケーラブルで一般化可能な対話システムに知識推論機能を組み込む新しい手法を提案する。
我々の知識を最大限に活用するために、変圧器モデルが微分可能な知識グラフを解析して応答を生成するのは、これが初めてである。
論文 参考訳(メタデータ) (2022-03-20T17:51:49Z) - E-ffective: A Visual Analytic System for Exploring the Emotion and
Effectiveness of Inspirational Speeches [57.279044079196105]
E-ffective(エフェクティブ)は、音声の専門家や初心者が、音声要因の役割と効果的な音声への貢献の両方を分析することのできる視覚分析システムである。
E-spiral(音声の感情の変化を視覚的にコンパクトに表現する)とE-script(音声コンテンツを主要な音声配信情報に結びつける)の2つの新しい可視化技術がある。
論文 参考訳(メタデータ) (2021-10-28T06:14:27Z) - Extending rational models of communication from beliefs to actions [10.169856458866088]
話し手は相手の信念に影響を与え、行動を形成する。
本研究では,純粋に情報的対象を持つ信念指向話者と,楽器的目的を持つ行動指向話者と,この2つを統合する統合話者の3つの話者モデルを開発する。
今後のリスナー行動における生産選択の基盤となる選択が,非リテラル言語の関連性や柔軟な利用をもたらすことを示す。
論文 参考訳(メタデータ) (2021-05-25T13:58:01Z) - Learning to Plan and Realize Separately for Open-Ended Dialogue Systems [7.790365778349838]
生成を、計画と実現の2つのフェーズに分離します。
プロセスから計画と実現への分離は、エンドツーエンドのアプローチよりも優れていることを実証します。
論文 参考訳(メタデータ) (2020-09-26T02:31:42Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。