論文の概要: Call for Customized Conversation: Customized Conversation Grounding
Persona and Knowledge
- arxiv url: http://arxiv.org/abs/2112.08619v1
- Date: Thu, 16 Dec 2021 04:44:27 GMT
- ステータス: 処理完了
- システム内更新日: 2021-12-18 05:26:48.700830
- Title: Call for Customized Conversation: Customized Conversation Grounding
Persona and Knowledge
- Title(参考訳): 会話のカスタマイズを呼び出す - 会話のパーソナライゼーションと知識のカスタマイズ
- Authors: Yoonna Jang, Jungwoo Lim, Yuna Hur, Dongsuk Oh, Suhyune Son, Yeonsoo
Lee, Donghoon Shin, Seungryong Kim, and Heuiseok Lim
- Abstract要約: ユーザのペルソナとウィキペディアの知識によって、カスタマイズされた回答が構築される、カスタマイズされた会話データセットのためのコールを導入する。
事前学習した言語モデルの情報的およびカスタマイズされた発話を行う能力を評価する。
- 参考スコア(独自算出の注目度): 25.378474996192438
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Humans usually have conversations by making use of prior knowledge about a
topic and background information of the people whom they are talking to.
However, existing conversational agents and datasets do not consider such
comprehensive information, and thus they have a limitation in generating the
utterances where the knowledge and persona are fused properly. To address this
issue, we introduce a call For Customized conversation (FoCus) dataset where
the customized answers are built with the user's persona and Wikipedia
knowledge. To evaluate the abilities to make informative and customized
utterances of pre-trained language models, we utilize BART and GPT-2 as well as
transformer-based models. We assess their generation abilities with automatic
scores and conduct human evaluations for qualitative results. We examine
whether the model reflects adequate persona and knowledge with our proposed two
sub-tasks, persona grounding (PG) and knowledge grounding (KG). Moreover, we
show that the utterances of our data are constructed with the proper knowledge
and persona through grounding quality assessment.
- Abstract(参考訳): 人間は通常、話題に関する事前の知識と、自分が話している人の背景情報を利用することで会話をする。
しかし、既存の会話エージェントやデータセットはそのような包括的情報を考慮していないため、知識とペルソナが適切に融合した発話の生成に限界がある。
この問題に対処するために、ユーザのペルソナとウィキペディアの知識によって、カスタマイズされた回答が構築されるFoCusデータセットの呼び出しを導入する。
事前訓練された言語モデルの情報的およびカスタマイズされた発話を評価する能力を評価するために,BARTとGPT-2およびトランスフォーマーベースモデルを利用する。
自動スコアで生成能力を評価し,定性的な結果を得るために人的評価を行う。
提案する2つのサブタスク,ペルソナグラウンド(PG)とナレッジグラウンド(KG)で,モデルが適切なペルソナと知識を反映しているかを検討する。
さらに,データの発話は,基礎的品質評価を通じて適切な知識とペルソナで構築されていることを示す。
関連論文リスト
- Learning from Implicit User Feedback, Emotions and Demographic Information in Task-Oriented and Document-Grounded Dialogues [52.95506649193427]
FEDIは、この情報に注釈を付けた最初の英語タスク指向および文書地上対話データセットである。
Flan-T5、GPT-2、Llama 2の実験では、タスクの完了と実際の一貫性に特に肯定的な影響が示されている。
論文 参考訳(メタデータ) (2024-01-17T14:52:26Z) - The Knowledge Alignment Problem: Bridging Human and External Knowledge for Large Language Models [65.80573571314534]
MixAlignは、ユーザと知識ベースの両方と対話して、ユーザの質問が格納された情報とどのように関連しているかを把握し、統合するフレームワークである。
実験結果から、モデル性能の向上と幻覚の緩和における知識アライメントの重要性が強調され、それぞれ22.2%と27.1%の改善が指摘された。
論文 参考訳(メタデータ) (2023-05-23T04:22:50Z) - You Truly Understand What I Need: Intellectual and Friendly Dialogue
Agents grounding Knowledge and Persona [30.30372603825815]
外部知識とペルソナを同時に活用する効果的な対話エージェントを提案する。
エージェントは、ポリエンコーダで実装された候補スコアで回答を生成するために使用する適切な知識とペルソナを選択する。
我々はペルソナ知識チャットの実験を行い、グラウンドおよび生成タスクにおける最先端のパフォーマンスを達成する。
論文 参考訳(メタデータ) (2023-01-06T06:47:21Z) - KPT: Keyword-guided Pre-training for Grounded Dialog Generation [82.68787152707455]
KPT(Guided Pre-Training)は,グラウンドドダイアログ生成のための自己教師付き事前学習手法である。
具体的には、事前訓練された言語モデルを用いて、ダイアログ内の最も不確実なトークンをキーワードとして抽出する。
我々は,対話行為,知識グラフ,ペルソナ記述,ウィキペディアの文節など,数発の知識ベース生成タスクについて広範な実験を行った。
論文 参考訳(メタデータ) (2022-12-04T04:05:01Z) - Persona-Knowledge Dialogue Multi-Context Retrieval and Enhanced Decoding
Methods [1.066048003460524]
我々はペルソナ・知識の識別と応答生成タスクに取り組む。
ニューラルQ&A検索モデルと互換性のある情報拡張戦略を設計する。
我々は、93.99%のグラウンディング精度と23.62のSacreBLEUスコアを持つ公式の指標でSOTAを達成している。
論文 参考訳(メタデータ) (2022-07-28T07:19:08Z) - What should I Ask: A Knowledge-driven Approach for Follow-up Questions
Generation in Conversational Surveys [63.51903260461746]
対話型調査における知識駆動型フォローアップ質問生成のための新しい課題を提案する。
そこで我々は,対話履歴とラベル付き知識を用いた人手によるフォローアップ質問の新しいデータセットを構築した。
次に,その課題に対する2段階の知識駆動モデルを提案する。
論文 参考訳(メタデータ) (2022-05-23T00:57:33Z) - There Are a Thousand Hamlets in a Thousand People's Eyes: Enhancing
Knowledge-grounded Dialogue with Personal Memory [67.24942840683904]
知識に基づく会話における知識選択に個人記憶を導入する。
本研究では,個人記憶から知識への前方マッピングと,その逆マッピングを閉ループに含める学習手法を提案する。
実験の結果,提案手法は自動評価と人的評価の両方において既存のKGC法よりも優れていた。
論文 参考訳(メタデータ) (2022-04-06T07:06:37Z) - Know Deeper: Knowledge-Conversation Cyclic Utilization Mechanism for
Open-domain Dialogue Generation [11.72386584395626]
エンドツーエンドのインテリジェントなニューラルダイアログシステムは、一貫性のない繰り返し応答を生成する問題に悩まされる。
既存の対話モデルは、対人関係の会話情報を対人情報の流れとして捉えた個人知識に組み込むことが、その後の会話の質を高めるという事実を無視しながら、対人関係の個人知識を一方的にダイアログに組み込むことに注意を払っている。
会話の一貫性を向上し、2つの折り畳みから繰り返しを緩和することを目的とした,会話適応型多視点対応対応型応答生成モデルを提案する。
論文 参考訳(メタデータ) (2021-07-16T08:59:06Z) - Human-like informative conversations: Better acknowledgements using
conditional mutual information [0.0]
この研究は、人間と同じくらい自然に会話に新しい事実コンテンツを織り込むことができる対話エージェントを構築することを目指しています。
対話分析の言語的原則から洞察を得て,switchboard dialog actコーパスから人間と人間の会話を注釈づけする。
論文 参考訳(メタデータ) (2021-04-16T00:13:57Z) - Information Seeking in the Spirit of Learning: a Dataset for
Conversational Curiosity [10.409312809724458]
我々は、ユーザが知っていることに関連する事実を提示されると、エンゲージメントが増加するという仮説をテストするウィザード・オブ・オズ・ダイアログタスクを設計する。
ユーザとアシスタントが地理的話題について会話する14Kダイアログ(181K発声)を収集・リリースする。
このデータセットには、既存のユーザ知識、メッセージレベルのダイアログアクション、ウィキペディアへの接地、メッセージに対するユーザ反応が注釈付けされている。
論文 参考訳(メタデータ) (2020-05-01T01:55:09Z) - IART: Intent-aware Response Ranking with Transformers in
Information-seeking Conversation Systems [80.0781718687327]
我々は、情報探索会話におけるユーザ意図パターンを分析し、意図認識型ニューラルレスポンスランキングモデル「IART」を提案する。
IARTは、ユーザ意図モデリングと言語表現学習とTransformerアーキテクチャの統合の上に構築されている。
論文 参考訳(メタデータ) (2020-02-03T05:59:52Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。