論文の概要: Multi-Grained Knowledge Retrieval for End-to-End Task-Oriented Dialog
- arxiv url: http://arxiv.org/abs/2305.10149v1
- Date: Wed, 17 May 2023 12:12:46 GMT
- ステータス: 処理完了
- システム内更新日: 2023-05-18 16:20:03.577920
- Title: Multi-Grained Knowledge Retrieval for End-to-End Task-Oriented Dialog
- Title(参考訳): エンドツーエンドタスク指向対話のための多段階知識検索
- Authors: Fanqi Wan, Weizhou Shen, Ke Yang, Xiaojun Quan and Wei Bi
- Abstract要約: 外部データベースから適切なドメイン知識を取得することは、エンドツーエンドのタスク指向の対話システムの中心にある。
既存のシステムの多くは、知識検索と応答生成を融合させ、参照応答からの直接監督でそれらを最適化している。
応答生成から知識検索を分離し,多粒度知識検索システムを提案する。
- 参考スコア(独自算出の注目度): 42.088274728084265
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Retrieving proper domain knowledge from an external database lies at the
heart of end-to-end task-oriented dialog systems to generate informative
responses. Most existing systems blend knowledge retrieval with response
generation and optimize them with direct supervision from reference responses,
leading to suboptimal retrieval performance when the knowledge base becomes
large-scale. To address this, we propose to decouple knowledge retrieval from
response generation and introduce a multi-grained knowledge retriever (MAKER)
that includes an entity selector to search for relevant entities and an
attribute selector to filter out irrelevant attributes. To train the retriever,
we propose a novel distillation objective that derives supervision signals from
the response generator. Experiments conducted on three standard benchmarks with
both small and large-scale knowledge bases demonstrate that our retriever
performs knowledge retrieval more effectively than existing methods. Our code
has been made publicly
available.\footnote{https://github.com/18907305772/MAKER}
- Abstract(参考訳): 外部データベースから適切なドメイン知識を取得することは、情報応答を生成するためにエンドツーエンドのタスク指向の対話システムの中心にある。
既存のシステムの多くは、知識検索と応答生成を融合させ、参照応答からの直接監督で最適化することで、知識ベースが大規模になると、最適下界検索性能が向上する。
そこで本研究では、応答生成から知識検索を分離し、関連するエンティティを検索するエンティティセレクタと、無関係な属性をフィルタリングする属性セレクタを含む多粒度知識検索器(MAKER)を提案する。
回収機を訓練するために, 応答発生器からの監視信号を導出する新しい蒸留目的を提案する。
小規模および大規模の知識ベースを用いた3つの標準ベンチマークによる実験により,既存の手法よりも効果的な知識検索が可能となった。
私たちのコードは公開されています。
\footnote{https://github.com/18907305772/MAKER}
関連論文リスト
- Dual-Feedback Knowledge Retrieval for Task-Oriented Dialogue Systems [42.17072207835827]
本稿では,レトリバーを利用して関連する知識を検索し,システム応答を生成するレトリバー・ジェネレータアーキテクチャを提案する。
提案手法は,3つのベンチマークデータセットを用いた実験結果から,タスク指向の対話タスクにおいて優れた性能を示す。
論文 参考訳(メタデータ) (2023-10-23T03:21:11Z) - Retrieval-Generation Alignment for End-to-End Task-Oriented Dialogue
System [40.33178881317882]
本稿では、応答生成からの信号を利用して、知覚的レトリバーの学習に最大限の限界確率を適用することを提案する。
本稿では,T5とChatGPTをバックボーンモデルとして用いた3つのタスク指向対話データセットについて検討する。
論文 参考訳(メタデータ) (2023-10-13T06:03:47Z) - End-to-end Knowledge Retrieval with Multi-modal Queries [50.01264794081951]
ReMuQは、テキストと画像のクエリからコンテンツを統合することで、大規模なコーパスから知識を取得するシステムを必要とする。
本稿では,入力テキストや画像を直接処理し,関連する知識をエンドツーエンドで検索する検索モデルReViz'を提案する。
ゼロショット設定下での2つのデータセットの検索において,優れた性能を示す。
論文 参考訳(メタデータ) (2023-06-01T08:04:12Z) - Task Oriented Conversational Modelling With Subjective Knowledge [0.0]
DSTC-11は、ターン検出、知識選択、応答生成を求める知識からなる3段階パイプラインを提案する。
本稿では,正確で高速な知識検索を実現するエンティティ検索手法を提案する。
予備的な結果から,知識選択作業における一致点の精度は4%向上した。
論文 参考訳(メタデータ) (2023-03-30T20:23:49Z) - Search-Engine-augmented Dialogue Response Generation with Cheaply
Supervised Query Production [98.98161995555485]
応答生成のために,任意の検索エンジンから膨大な動的情報にアクセス可能な対話モデルを提案する。
コアモジュールとして、クエリプロデューサを使用して、対話コンテキストからクエリを生成して、検索エンジンと対話する。
R@1とR@5のレートを62.4%と74.8%で達成できることを示す実験を行った。
論文 参考訳(メタデータ) (2023-02-16T01:58:10Z) - REVEAL: Retrieval-Augmented Visual-Language Pre-Training with
Multi-Source Multimodal Knowledge Memory [119.98011559193574]
エンドツーエンドの検索型ビジュアル言語モデル(REVEAL)を提案する。
世界の知識を大規模なメモリにエンコードし、そこから取り出して知識集約的なクエリに答えることを学ぶ。
このアプローチの重要な特徴は、メモリ、エンコーダ、レトリバー、ジェネレータはすべて、大量のデータに対して、エンドツーエンドで事前訓練されていることです。
論文 参考訳(メタデータ) (2022-12-10T06:17:56Z) - Generate rather than Retrieve: Large Language Models are Strong Context
Generators [74.87021992611672]
本稿では,文書検索を大規模言語モデル生成器に置き換えることで,知識集約型タスクを解く新しい視点を提案する。
我々は,提案手法をgenRead (genRead) と呼び,まず大きな言語モデルに対して,与えられた質問に基づいて文脈文書を生成し,次に生成された文書を読み出して最終回答を生成する。
論文 参考訳(メタデータ) (2022-09-21T01:30:59Z) - Distilling Knowledge from Reader to Retriever for Question Answering [16.942581590186343]
我々は,知識蒸留に触発された下流タスクのレトリバーモデルを学ぶ手法を提案する。
質問応答の方法を評価し,最新の結果を得た。
論文 参考訳(メタデータ) (2020-12-08T17:36:34Z) - Open-Retrieval Conversational Question Answering [62.11228261293487]
オープン検索型対話型質問応答 (ORConvQA) の設定を導入する。
ORConvQAのエンド・ツー・エンドシステムを構築し,レトリバー,リランカ,およびすべてトランスフォーマーをベースとしたリーダを特徴とする。
論文 参考訳(メタデータ) (2020-05-22T19:39:50Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。