論文の概要: Human-like informative conversations: Better acknowledgements using
conditional mutual information
- arxiv url: http://arxiv.org/abs/2104.07831v1
- Date: Fri, 16 Apr 2021 00:13:57 GMT
- ステータス: 処理完了
- システム内更新日: 2021-04-20 05:33:56.815348
- Title: Human-like informative conversations: Better acknowledgements using
conditional mutual information
- Title(参考訳): ヒューマンライクな情報対話:条件付き相互情報を用いたより良い認識
- Authors: Ashwin Paranjape (1), Christopher D. Manning (1) ((1) Stanford
University)
- Abstract要約: この研究は、人間と同じくらい自然に会話に新しい事実コンテンツを織り込むことができる対話エージェントを構築することを目指しています。
対話分析の言語的原則から洞察を得て,switchboard dialog actコーパスから人間と人間の会話を注釈づけする。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: This work aims to build a dialogue agent that can weave new factual content
into conversations as naturally as humans. We draw insights from linguistic
principles of conversational analysis and annotate human-human conversations
from the Switchboard Dialog Act Corpus to examine humans strategies for
acknowledgement, transition, detail selection and presentation. When current
chatbots (explicitly provided with new factual content) introduce facts into a
conversation, their generated responses do not acknowledge the prior turns.
This is because models trained with two contexts - new factual content and
conversational history - generate responses that are non-specific w.r.t. one of
the contexts, typically the conversational history. We show that specificity
w.r.t. conversational history is better captured by Pointwise Conditional
Mutual Information ($\text{pcmi}_h$) than by the established use of Pointwise
Mutual Information ($\text{pmi}$). Our proposed method, Fused-PCMI, trades off
$\text{pmi}$ for $\text{pcmi}_h$ and is preferred by humans for overall quality
over the Max-PMI baseline 60% of the time. Human evaluators also judge
responses with higher $\text{pcmi}_h$ better at acknowledgement 74% of the
time. The results demonstrate that systems mimicking human conversational
traits (in this case acknowledgement) improve overall quality and more broadly
illustrate the utility of linguistic principles in improving dialogue agents.
- Abstract(参考訳): この研究は、人間のように自然に会話に新しい事実コンテンツを織り込む対話エージェントを構築することを目的としている。
対話分析の言語的原則から洞察を得て,switchboard dialog actコーパスから人間と人間の会話に注釈を付け,認識,遷移,詳細選択,提示のための人間の戦略を検討する。
現在のチャットボット(特に新しい事実コンテンツが提供される)が会話に事実を導入すると、生成された応答は以前のターンを認識しない。
これは、新しい事実コンテンツと会話履歴の2つのコンテキストでトレーニングされたモデルが、w.r.t.以外の応答を生成するためである。
文脈の1つ、典型的には会話の歴史です
私たちはその特異性を示す。
会話履歴はPointwise Conditional Mutual Information(\text{pcmi}_h$)によって取得され、Pointwise Mutual Information(\text{pmi}$)の確立された使用により取得される。
提案手法である fused-pcmi は $\text{pmi}$ を$\text{pcmi}_h$ と引き換えに使用し,max-pmi ベースラインの60% よりも全体的な品質で人間に好まれる。
human evaluatorsはまた、より高い$\text{pcmi}_h$で応答を承認時に74%で判断する。
その結果、人間の会話特性を模倣するシステム(この場合の認識)は全体的な品質を向上し、対話エージェントの改善における言語原理の有用性をより広く示している。
関連論文リスト
- Interactive Dialogue Agents via Reinforcement Learning on Hindsight Regenerations [58.65755268815283]
多くの実際の対話は対話的であり、つまりエージェントの発話が会話の相手に影響を与えるか、情報を引き出すか、意見を変えるかである。
この事実を利用して、既存の最適データを書き直し、拡張し、オフライン強化学習(RL)を介してトレーニングする。
実際の人間によるユーザ調査の結果、我々のアプローチは既存の最先端の対話エージェントを大きく上回っていることがわかった。
論文 参考訳(メタデータ) (2024-11-07T21:37:51Z) - Self-Directed Turing Test for Large Language Models [56.64615470513102]
チューリングテストは、自然言語の会話においてAIが人間のような振る舞いを示すことができるかどうかを調べる。
従来のチューリングテストでは、各参加者が1回に1つのメッセージだけを送信する厳格な対話形式を採用している。
本稿では,バーストダイアログ形式を用いた自己指示チューリングテストを提案する。
論文 参考訳(メタデータ) (2024-08-19T09:57:28Z) - Let's Get Personal: Personal Questions Improve SocialBot Performance in
the Alexa Prize [0.0]
音声対話コミュニティにおいて,対話型オープンドメイン対話システムの構築に焦点が当てられている。
従来の対話システムとは異なり、これらの対話システムは特定の情報やドメインの制限を前提とすることはできない。
我々は、Amazon Echoユーザーが大規模にアクセスし、評価する、堅牢なオープンドメイン会話システムであるAthenaを開発した。
論文 参考訳(メタデータ) (2023-03-09T00:10:29Z) - PLACES: Prompting Language Models for Social Conversation Synthesis [103.94325597273316]
我々は、プロンプトを用いてソーシャルな会話データセットを合成するために、専門家による会話の小さなセットをコンテキスト内例として使用します。
人工会話の徹底的な評価を,人間による会話と比較して行った。
論文 参考訳(メタデータ) (2023-02-07T05:48:16Z) - Knowledge-Grounded Conversational Data Augmentation with Generative
Conversational Networks [76.11480953550013]
生成会話ネットワークを用いて会話データを自動的に生成する。
我々は、Topical Chatデータセット上で、知識のない会話に対するアプローチを評価した。
論文 参考訳(メタデータ) (2022-07-22T22:37:14Z) - End-to-end Spoken Conversational Question Answering: Task, Dataset and
Model [92.18621726802726]
音声による質問応答では、システムは関連する音声書き起こしの中に連続したテキストスパンからの質問に答えるように設計されている。
本稿では,複雑な対話フローをモデル化することを目的とした音声対話型質問応答タスク(SCQA)を提案する。
本研究の目的は,音声記録に基づく対話型質問に対処するシステムを構築することであり,情報収集システムによる様々なモダリティからより多くの手がかりを提供する可能性を探ることである。
論文 参考訳(メタデータ) (2022-04-29T17:56:59Z) - Ditch the Gold Standard: Re-evaluating Conversational Question Answering [9.194536300785481]
我々は,最先端CQAシステムの大規模評価を行う。
その結果,人間と機械の会話の分布は人間と機械の会話とは大きく異なることがわかった。
本研究では,予測履歴に基づく質問書き直し機構を提案する。
論文 参考訳(メタデータ) (2021-12-16T11:57:56Z) - Know Deeper: Knowledge-Conversation Cyclic Utilization Mechanism for
Open-domain Dialogue Generation [11.72386584395626]
エンドツーエンドのインテリジェントなニューラルダイアログシステムは、一貫性のない繰り返し応答を生成する問題に悩まされる。
既存の対話モデルは、対人関係の会話情報を対人情報の流れとして捉えた個人知識に組み込むことが、その後の会話の質を高めるという事実を無視しながら、対人関係の個人知識を一方的にダイアログに組み込むことに注意を払っている。
会話の一貫性を向上し、2つの折り畳みから繰り返しを緩和することを目的とした,会話適応型多視点対応対応型応答生成モデルを提案する。
論文 参考訳(メタデータ) (2021-07-16T08:59:06Z) - Dialogue History Matters! Personalized Response Selectionin Multi-turn
Retrieval-based Chatbots [62.295373408415365]
本稿では,コンテキスト応答マッチングのためのパーソナライズドハイブリッドマッチングネットワーク(phmn)を提案する。
1) ユーザ固有の対話履歴からパーソナライズされた発話行動を付加的なマッチング情報として抽出する。
ユーザ識別による2つの大規模データセット,すなわちパーソナライズされた対話 Corpus Ubuntu (P-Ubuntu) とパーソナライズされたWeiboデータセット (P-Weibo) のモデルを評価する。
論文 参考訳(メタデータ) (2021-03-17T09:42:11Z) - Contextual Dialogue Act Classification for Open-Domain Conversational
Agents [10.576497782941697]
会話におけるユーザ発話の一般的な意図を分類することは、会話エージェントのための自然言語理解(NLU)の重要なステップである。
本稿では,文脈対話行為分類のための簡易かつ効果的な深層学習手法であるCDAC(Contextual Dialogue Act)を提案する。
我々は、人-機械対話における対話行動を予測するために、トランスファーラーニングを用いて人間-機械対話で訓練されたモデルを適用する。
論文 参考訳(メタデータ) (2020-05-28T06:48:10Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。