論文の概要: Dynamically Retrieving Knowledge via Query Generation for informative
dialogue response
- arxiv url: http://arxiv.org/abs/2208.00128v1
- Date: Sat, 30 Jul 2022 03:05:43 GMT
- ステータス: 処理完了
- システム内更新日: 2022-08-02 13:30:02.239967
- Title: Dynamically Retrieving Knowledge via Query Generation for informative
dialogue response
- Title(参考訳): 情報対話応答のためのクエリ生成による知識の動的検索
- Authors: Zhongtian Hu, Yangqi Chen, Yushuang Liu and Lifang Wang
- Abstract要約: DRKQG (emphDynamically Retrieving Knowledge via Query Generation for informative dialogue response) という知識駆動型対話システムを設計する。
まず、時間認識機構を用いてコンテキスト情報をキャプチャし、知識を検索するためのクエリを生成する。
そこで我々は,応答生成モジュールがコンテキストから派生した応答を生成し,検索した知識を生成できるコピー機構とトランスフォーマーを統合した。
- 参考スコア(独自算出の注目度): 7.196104022425989
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Knowledge-driven dialogue generation has recently made remarkable
breakthroughs. Compared with general dialogue systems, superior
knowledge-driven dialogue systems can generate more informative and
knowledgeable responses with pre-provided knowledge. However, in practical
applications, the dialogue system cannot be provided with corresponding
knowledge in advance. In order to solve the problem, we design a
knowledge-driven dialogue system named DRKQG (\emph{Dynamically Retrieving
Knowledge via Query Generation for informative dialogue response}).
Specifically, the system can be divided into two modules: query generation
module and dialogue generation module. First, a time-aware mechanism is
utilized to capture context information and a query can be generated for
retrieving knowledge. Then, we integrate copy Mechanism and Transformers, which
allows the response generation module produces responses derived from the
context and retrieved knowledge. Experimental results at LIC2022, Language and
Intelligence Technology Competition, show that our module outperforms the
baseline model by a large margin on automatic evaluation metrics, while human
evaluation by Baidu Linguistics team shows that our system achieves impressive
results in Factually Correct and Knowledgeable.
- Abstract(参考訳): 知識駆動対話生成は、最近目覚ましい進歩を遂げた。
一般的な対話システムと比較して、優れた知識駆動対話システムは、事前に提供された知識によってより情報的で知識に富んだ応答を生成することができる。
しかし、実際の応用においては、対話システムは事前に対応する知識を供給できない。
この問題を解決するために、DRKQG(情報対話応答のためのクエリ生成による知識の動的検索)という知識駆動型対話システムを設計する。
具体的には、システムはクエリ生成モジュールと対話生成モジュールの2つのモジュールに分割される。
まず、時間認識機構を用いてコンテキスト情報をキャプチャし、知識を検索するためのクエリを生成する。
次に、コピー機構とトランスフォーマーを統合し、応答生成モジュールがコンテキストと取得した知識から応答を生成するようにする。
言語・インテリジェンス技術コンペティション(Language and Intelligence Technologyコンペティション)での実験結果によると,我々のモジュールは自動評価の指標でベースラインモデルよりも優れており,Baidu Linguisticsチームによる人間による評価は,我々のシステムがFoctually Correct and Knowledgeableで印象的な結果を達成していることを示している。
関連論文リスト
- Improving Factual Consistency for Knowledge-Grounded Dialogue Systems
via Knowledge Enhancement and Alignment [77.56326872997407]
事前訓練言語モデル(PLM)に基づく知識基底対話システムは、提供された知識源と実際に矛盾しない応答を生成する傾向にある。
トランスフォーマー内のフィードフォワードネットワーク(FFN)が事実知識表現の責任を負っていると判断する以前の研究から着想を得て,事実表現能力を効率的に改善するための2つの方法を検討した。
論文 参考訳(メタデータ) (2023-10-12T14:44:05Z) - PK-Chat: Pointer Network Guided Knowledge Driven Generative Dialogue
Model [79.64376762489164]
PK-Chatは、知識グラフ上のポインタネットワークと、事前訓練された言語モデルを組み合わせた、ポインタネットワーク誘導生成対話モデルである。
PK-Chatが対話で生成した単語は、単語リストの予測と外部知識グラフ知識の直接予測から導かれる。
PK-Chatに基づく対話システムは、地球科学の学術シナリオ向けに構築されている。
論文 参考訳(メタデータ) (2023-04-02T18:23:13Z) - Search-Engine-augmented Dialogue Response Generation with Cheaply
Supervised Query Production [98.98161995555485]
応答生成のために,任意の検索エンジンから膨大な動的情報にアクセス可能な対話モデルを提案する。
コアモジュールとして、クエリプロデューサを使用して、対話コンテキストからクエリを生成して、検索エンジンと対話する。
R@1とR@5のレートを62.4%と74.8%で達成できることを示す実験を行った。
論文 参考訳(メタデータ) (2023-02-16T01:58:10Z) - Position Matters! Empirical Study of Order Effect in Knowledge-grounded
Dialogue [54.98184262897166]
本稿では,知識集合の順序が自己回帰対話システムの応答にどのように影響するかを検討する。
本稿では,知識入力の位置埋め込みを変更することで,注文効果を緩和する,シンプルで斬新な手法を提案する。
論文 参考訳(メタデータ) (2023-02-12T10:13:00Z) - KPT: Keyword-guided Pre-training for Grounded Dialog Generation [82.68787152707455]
KPT(Guided Pre-Training)は,グラウンドドダイアログ生成のための自己教師付き事前学習手法である。
具体的には、事前訓練された言語モデルを用いて、ダイアログ内の最も不確実なトークンをキーワードとして抽出する。
我々は,対話行為,知識グラフ,ペルソナ記述,ウィキペディアの文節など,数発の知識ベース生成タスクについて広範な実験を行った。
論文 参考訳(メタデータ) (2022-12-04T04:05:01Z) - Reason first, then respond: Modular Generation for Knowledge-infused
Dialogue [43.64093692715295]
大規模な言語モデルは、流動的な対話を生成できるが、しばしば事実の不正確さを幻覚させる。
本稿では,会話エージェントに知識を組み込むモジュールモデルであるKnowledge to Responseを提案する。
詳細な実験では、そのようなモデルが知識に基づく対話作業において幻覚を弱めることが判明した。
論文 参考訳(メタデータ) (2021-11-09T15:29:43Z) - Retrieval-Free Knowledge-Grounded Dialogue Response Generation with
Adapters [52.725200145600624]
軽量アダプタで事前学習した言語モデルに事前知識を注入し、検索プロセスをバイパスする KnowExpert を提案する。
実験結果から,KnowExpertは検索ベースラインと相容れない性能を示した。
論文 参考訳(メタデータ) (2021-05-13T12:33:23Z) - Prediction, Selection, and Generation: Exploration of Knowledge-Driven
Conversation System [24.537862151735006]
オープンドメインの会話システムでは、背景知識を活用することは重要だが難しい。
知識ベースと事前学習モデルを組み合わせて,知識駆動会話システムを提案する。
知識駆動対話の生成に影響を与える可能性のあるパフォーマンス要因について検討する。
論文 参考訳(メタデータ) (2021-04-23T07:59:55Z) - BERT-CoQAC: BERT-based Conversational Question Answering in Context [10.811729691130349]
履歴変換をシステム内に組み込むためのBERTという,パブリックに利用可能なプリトレーニング言語モデルに基づくフレームワークを紹介する。
実験の結果,我々のフレームワークはQuACリーダボードの最先端モデルと同等の性能を示した。
論文 参考訳(メタデータ) (2021-04-23T03:05:17Z) - Learning to Retrieve Entity-Aware Knowledge and Generate Responses with
Copy Mechanism for Task-Oriented Dialogue Systems [43.57597820119909]
第9回対話システム技術チャレンジ(DSTC 9)のトラック1として非構造化知識アクセスを用いたタスク指向対話型モデリング
この課題は,(1)知識探索ターン検出,(2)知識選択,(3)知識接地応答生成の3つのサブタスクに分けることができる。
我々は、異なるサブタスクのベースエンコーダとして、事前訓練された言語モデルELECTRAとRoBERTaを使用します。
論文 参考訳(メタデータ) (2020-12-22T11:36:37Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。