論文の概要: KPT: Keyword-guided Pre-training for Grounded Dialog Generation
- arxiv url: http://arxiv.org/abs/2212.01739v1
- Date: Sun, 4 Dec 2022 04:05:01 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-06 16:41:30.429210
- Title: KPT: Keyword-guided Pre-training for Grounded Dialog Generation
- Title(参考訳): KPT:接地ダイアログ生成のためのキーワード誘導事前学習
- Authors: Qi Zhu, Fei Mi, Zheng Zhang, Yasheng Wang, Yitong Li, Xin Jiang, Qun
Liu, Xiaoyan Zhu, Minlie Huang
- Abstract要約: KPT(Guided Pre-Training)は,グラウンドドダイアログ生成のための自己教師付き事前学習手法である。
具体的には、事前訓練された言語モデルを用いて、ダイアログ内の最も不確実なトークンをキーワードとして抽出する。
我々は,対話行為,知識グラフ,ペルソナ記述,ウィキペディアの文節など,数発の知識ベース生成タスクについて広範な実験を行った。
- 参考スコア(独自算出の注目度): 82.68787152707455
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Incorporating external knowledge into the response generation process is
essential to building more helpful and reliable dialog agents. However,
collecting knowledge-grounded conversations is often costly, calling for a
better pre-trained model for grounded dialog generation that generalizes well
w.r.t. different types of knowledge. In this work, we propose KPT
(Keyword-guided Pre-Training), a novel self-supervised pre-training method for
grounded dialog generation without relying on extra knowledge annotation.
Specifically, we use a pre-trained language model to extract the most uncertain
tokens in the dialog as keywords. With these keywords, we construct two kinds
of knowledge and pre-train a knowledge-grounded response generation model,
aiming at handling two different scenarios: (1) the knowledge should be
faithfully grounded; (2) it can be selectively used. For the former, the
grounding knowledge consists of keywords extracted from the response. For the
latter, the grounding knowledge is additionally augmented with keywords
extracted from other utterances in the same dialog. Since the knowledge is
extracted from the dialog itself, KPT can be easily performed on a large volume
and variety of dialogue data. We considered three data sources (open-domain,
task-oriented, conversational QA) with a total of 2.5M dialogues. We conduct
extensive experiments on various few-shot knowledge-grounded generation tasks,
including grounding on dialog acts, knowledge graphs, persona descriptions, and
Wikipedia passages. Our comprehensive experiments and analyses demonstrate that
KPT consistently outperforms state-of-the-art methods on these tasks with
diverse grounding knowledge.
- Abstract(参考訳): 応答生成プロセスに外部知識を組み込むことは、より便利で信頼性の高いダイアログエージェントを構築するのに不可欠である。
しかし、知識に基づく会話の収集はコストがかかることが多く、様々な種類の知識をうまく一般化する接地ダイアログ生成のためのより良い事前学習モデルを求める。
本研究では,知識の余分なアノテーションを使わずに,接地ダイアログ生成のための新しい自己教師付き事前学習手法であるkptを提案する。
具体的には、事前訓練された言語モデルを用いて、ダイアログ内の最も不確実なトークンをキーワードとして抽出する。
これらのキーワードを用いて2種類の知識を構築し,知識接地応答生成モデルを事前学習し,(1)知識を忠実に接地すべき,(2)選択的に使用できる,という2つのシナリオを扱うことを目的とした。
前者の場合、接地知識は応答から抽出されたキーワードからなる。
後者の場合、基底知識は、同じダイアログ内の他の発話から抽出されたキーワードで拡張される。
ダイアログ自体から知識が抽出されるので、KPTは多種多様なダイアログデータに対して容易に実行することができる。
我々は3つのデータソース(オープンドメイン、タスク指向、会話型QA)を合計2.5Mの対話で検討した。
我々は,対話行為,知識グラフ,ペルソナ記述,ウィキペディアの文節など,数発の知識ベース生成タスクについて広範な実験を行った。
包括的実験と分析により,kptは様々な基礎知識を持つタスクにおいて,最先端の手法を一貫して上回っていることが示された。
関連論文リスト
- PK-Chat: Pointer Network Guided Knowledge Driven Generative Dialogue
Model [79.64376762489164]
PK-Chatは、知識グラフ上のポインタネットワークと、事前訓練された言語モデルを組み合わせた、ポインタネットワーク誘導生成対話モデルである。
PK-Chatが対話で生成した単語は、単語リストの予測と外部知識グラフ知識の直接予測から導かれる。
PK-Chatに基づく対話システムは、地球科学の学術シナリオ向けに構築されている。
論文 参考訳(メタデータ) (2023-04-02T18:23:13Z) - PK-ICR: Persona-Knowledge Interactive Context Retrieval for Grounded Dialogue [21.266410719325208]
ペルソナとナレッジ デュアルコンテキスト識別(ペルソナとナレッジ コンテクストの同定)は、与えられた対話において、ペルソナとナレッジを共同で識別するタスクである。
我々は,対話のすべての文脈を同時に活用する新しい接地検索手法を開発した。
論文 参考訳(メタデータ) (2023-02-13T20:27:26Z) - Position Matters! Empirical Study of Order Effect in Knowledge-grounded
Dialogue [54.98184262897166]
本稿では,知識集合の順序が自己回帰対話システムの応答にどのように影響するかを検討する。
本稿では,知識入力の位置埋め込みを変更することで,注文効果を緩和する,シンプルで斬新な手法を提案する。
論文 参考訳(メタデータ) (2023-02-12T10:13:00Z) - SPACE-2: Tree-Structured Semi-Supervised Contrastive Pre-training for
Task-Oriented Dialog Understanding [68.94808536012371]
本稿では,限定ラベル付きダイアログと大規模未ラベルダイアログコーパスから対話表現を学習する,木構造付き事前学習会話モデルを提案する。
提案手法は,7つのデータセットと4つの一般的な対話理解タスクからなるDialoGLUEベンチマークにおいて,最新の結果が得られる。
論文 参考訳(メタデータ) (2022-09-14T13:42:50Z) - HybriDialogue: An Information-Seeking Dialogue Dataset Grounded on
Tabular and Textual Data [87.67278915655712]
我々は、ウィキペディアのテキストとテーブルの両方を基盤とした、クラウドソーシングされた自然な会話からなる新しい対話データセットHybriDialogueを提示する。
これらの会話は、複雑なマルチホップ質問をシンプルで現実的なマルチターン対話に分解することで生成される。
論文 参考訳(メタデータ) (2022-04-28T00:52:16Z) - Achieving Conversational Goals with Unsupervised Post-hoc Knowledge
Injection [37.15893335147598]
現在のニューラルダイアログモデルの制限は、生成された応答における特異性と情報性の欠如に悩まされる傾向があることである。
本稿では,対話履歴と既存の対話モデルから初期応答の両方を条件とした,多様な知識スニペットの集合を検索する,ポストホックな知識注入手法を提案する。
我々は,各検索したスニペットを,勾配に基づく復号法を用いて初期応答に個別に注入し,教師なしランキングステップで最終応答を選択する複数の候補応答を構築する。
論文 参考訳(メタデータ) (2022-03-22T00:42:27Z) - Multi-turn Dialogue Reading Comprehension with Pivot Turns and Knowledge [43.352833140317486]
マルチターン対話読解は、機械に対話コンテキストを読み、応答選択や回答質問といったタスクを解くことを目的としている。
この研究は、ピボット発話として重要なターンを抽出することで、上記の2つの課題に対処する最初の試みである。
本稿では,対話理解のためのトランスフォーマーに基づく言語モデル上に,ピボット指向の深層選択モデル(PoDS)を提案する。
論文 参考訳(メタデータ) (2021-02-10T15:00:12Z) - Knowledge Injection into Dialogue Generation via Language Models [85.65843021510521]
InjKは対話生成モデルに知識を注入するための2段階のアプローチである。
まず、大規模言語モデルをトレーニングし、テキスト知識としてクエリする。
次に、対話生成モデルを作成し、テキスト知識と対応する応答を逐次生成する。
論文 参考訳(メタデータ) (2020-04-30T07:31:24Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。