論文の概要: Lexical Entrainment for Conversational Systems
- arxiv url: http://arxiv.org/abs/2310.09651v1
- Date: Sat, 14 Oct 2023 19:47:37 GMT
- ステータス: 処理完了
- システム内更新日: 2023-10-17 19:00:59.263912
- Title: Lexical Entrainment for Conversational Systems
- Title(参考訳): 会話システムのための語彙エントレインメント
- Authors: Zhengxiang Shi, Procheta Sen, Aldo Lipani
- Abstract要約: 語彙順応 (lexical entrainment, LE) は、人間と人間の会話における話者が自然に、意識的に語彙の選択を相互に一致させる現象である。
我々は,MultiWOZ-ENTRという新しいデータセットと対話システムのためのLE尺度を提案する。
本稿では,LE抽出タスクとLE生成タスクという2つの新しいタスクで,LEを会話システムに明示的に統合する方法を提案する。
- 参考スコア(独自算出の注目度): 17.804120633812797
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Conversational agents have become ubiquitous in assisting with daily tasks,
and are expected to possess human-like features. One such feature is lexical
entrainment (LE), a phenomenon in which speakers in human-human conversations
tend to naturally and subconsciously align their lexical choices with those of
their interlocutors, leading to more successful and engaging conversations. As
an example, if a digital assistant replies 'Your appointment for Jinling Noodle
Pub is at 7 pm' to the question 'When is my reservation for Jinling Noodle Bar
today?', it may feel as though the assistant is trying to correct the speaker,
whereas a response of 'Your reservation for Jinling Noodle Bar is at 7 pm'
would likely be perceived as more positive. This highlights the importance of
LE in establishing a shared terminology for maximum clarity and reducing
ambiguity in conversations. However, we demonstrate in this work that current
response generation models do not adequately address this crucial humanlike
phenomenon. To address this, we propose a new dataset, named MULTIWOZ-ENTR, and
a measure for LE for conversational systems. Additionally, we suggest a way to
explicitly integrate LE into conversational systems with two new tasks, a LE
extraction task and a LE generation task. We also present two baseline
approaches for the LE extraction task, which aim to detect LE expressions from
dialogue contexts.
- Abstract(参考訳): 会話エージェントは日常的なタスクを支援するためにユビキタスになり、人間のような機能を持つことが期待されている。
そのような特徴の1つは、人間と人間の会話の話者が自然かつ潜在意識的に語彙の選択と対話者の選択を一致させ、より成功し、魅力的な会話へと繋がる現象であるレキシカル・エントレーメント(le)である。
例えば、デジタルアシスタントが「今日、ジンリングヌードルバーの予約はいつですか?」という質問に「ジンリングヌードルパブの予約は午後7時です」と答えると、アシスタントがスピーカーを正そうとしているように感じるのに対して、「ジンリングヌードルバーの予約は午後7時です」という反応は、よりポジティブなものになる可能性が高い。
このことは、会話における最大明快さと曖昧さの低減のための共通用語を確立する上で、LEの重要性を強調している。
しかし,本研究では,現在の応答生成モデルが,この重要な人間的現象に十分対応していないことを実証する。
そこで我々は,MultiWOZ-ENTRという新しいデータセットと,会話システムのためのLE尺度を提案する。
さらに、LE抽出タスクとLE生成タスクという2つの新しいタスクで、LEを会話システムに明示的に統合する方法を提案する。
また,対話コンテキストからのle表現の検出を目的とした,le抽出タスクに対する2つのベースラインアプローチを提案する。
関連論文リスト
- Interactive Dialogue Agents via Reinforcement Learning on Hindsight Regenerations [58.65755268815283]
多くの実際の対話は対話的であり、つまりエージェントの発話が会話の相手に影響を与えるか、情報を引き出すか、意見を変えるかである。
この事実を利用して、既存の最適データを書き直し、拡張し、オフライン強化学習(RL)を介してトレーニングする。
実際の人間によるユーザ調査の結果、我々のアプローチは既存の最先端の対話エージェントを大きく上回っていることがわかった。
論文 参考訳(メタデータ) (2024-11-07T21:37:51Z) - Target conversation extraction: Source separation using turn-taking dynamics [23.189364779538757]
本稿では,ターゲット会話抽出の新たな課題について紹介する。その目的は,参加者の1人の話者埋め込みに基づいて,対象会話の音声を抽出することである。
ニューラルネットワークを用いて、英語とマンダリンの会話データセットに対する我々のアプローチの有効性を示す。
干渉話者の存在下では,2対4対4対4対4対4対4対4対7.92対2対1対1対1対1対1対1対8.19対1対1対1対4対4対4対4対2対2対2対2対2対1対1対1対1対1対1対1対1対1対1対1対1対1対1対1対1対1対1対2対2対2対2対4対1対2対2対2対2対2対2対2対2対2対1対1対1対1対1対1対1対1
論文 参考訳(メタデータ) (2024-07-15T22:55:27Z) - Speaker Verification in Agent-Generated Conversations [47.6291644653831]
近年の大型言語モデル (LLM) の成功は、様々な話者の特徴やスタイルに合わせたロールプレイング・会話エージェントを開発し、汎用的・特殊な対話タスクを遂行する能力を高めるために広く関心を集めている。
本研究では,2つの発話が同一話者から発せられるかどうかを検証することを目的とした,エージェント生成会話における話者検証という,新たな評価課題を紹介する。
論文 参考訳(メタデータ) (2024-05-16T14:46:18Z) - Cue-CoT: Chain-of-thought Prompting for Responding to In-depth Dialogue
Questions with LLMs [59.74002011562726]
我々は、よりパーソナライズされ魅力的な応答を提供するために、新しい言語的キューに基づく思考の連鎖(textitCue-CoT)を提案する。
中国語と英語の6つのデータセットからなる詳細な対話質問を用いたベンチマークを構築した。
実験により,提案手法は,すべてのデータセットにおいて,テクステルパーフルネスとテクスチタアクセプタビリティの両方の観点から,標準的プロンプト法よりも優れていることを示す。
論文 参考訳(メタデータ) (2023-05-19T16:27:43Z) - Contextual Dynamic Prompting for Response Generation in Task-oriented
Dialog Systems [8.419582942080927]
応答生成はタスク指向対話システムにおいて重要なコンポーネントの1つである。
本稿では,対話コンテキストからプロンプトを学習するテキスト動的プロンプトを実現する手法を提案する。
文脈的動的プロンプトは,3つの絶対点で構造化されたテキスト合成スコア citemehri-etal 2019 を用いて応答生成を改善することを示す。
論文 参考訳(メタデータ) (2023-01-30T20:26:02Z) - Question-Interlocutor Scope Realized Graph Modeling over Key Utterances
for Dialogue Reading Comprehension [61.55950233402972]
本稿では,対話読解のためのキーワード抽出手法を提案する。
複数の連続した発話によって形成された単位に対して予測を行い、より多くの回答を含む発話を実現する。
発話のテキスト上に構築されたグラフとして,質問-対話者スコープ実現グラフ(QuISG)モデルを提案する。
論文 参考訳(メタデータ) (2022-10-26T04:00:42Z) - KETOD: Knowledge-Enriched Task-Oriented Dialogue [77.59814785157877]
対話システム研究における既存の研究は、主にタスク指向の対話とチャットを独立したドメインとして扱う。
本研究では,タスク指向対話と知識ベースチップチャットを一つのモデルに効果的に統合する方法について検討する。
論文 参考訳(メタデータ) (2022-05-11T16:01:03Z) - Few-Shot Bot: Prompt-Based Learning for Dialogue Systems [58.27337673451943]
ごく少数の例を使って会話を学ぶことは、会話型AIにおける大きな課題である。
現在の最良の会話モデルは、良いチャットシャッター(例:BlenderBot)またはゴール指向システム(例:MinTL)である。
グラデーションベースの微調整を必要とせず、学習の唯一の源としていくつかの例を用いるプロンプトベースの数ショット学習を提案する。
論文 参考訳(メタデータ) (2021-10-15T14:36:45Z) - NaRLE: Natural Language Models using Reinforcement Learning with Emotion
Feedback [0.37277730514654556]
NARLEは、対話システムの自然言語理解を改善するためのフレームワークである。
2つの意図的分類問題に対して、事前学習された教師付き学習モデルの微調整に強化学習を用いることで、最大43%の性能を向上させることを実証的に示す。
論文 参考訳(メタデータ) (2021-10-05T16:24:19Z) - Adding Chit-Chat to Enhance Task-Oriented Dialogues [36.93917437554091]
Chit-Chatをタスク指向の対話に追加することで、仮想アシスタントの会話をより魅力的でインタラクティブにすることができる。
我々は,2つのタスク指向対話データセットから23.8Kの対話に,新しいチャットベースのアノテーションを提案する。
また,タスク指向対話にChit-chatを追加するための3つの新しいモデルを提案する。
論文 参考訳(メタデータ) (2020-10-24T03:22:43Z) - Filling the Gap of Utterance-aware and Speaker-aware Representation for
Multi-turn Dialogue [76.88174667929665]
マルチターン対話は、2つ以上の異なる話者の役割から複数の発話からなる。
既存の検索に基づくマルチターン対話モデルでは、事前訓練された言語モデル(PrLM)をエンコーダとして、対話を粗く表現する。
本稿では,対話履歴に係わる効果的な発話認識表現と話者認識表現をモデル化することにより,そのようなギャップを埋める新しいモデルを提案する。
論文 参考訳(メタデータ) (2020-09-14T15:07:19Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。