論文の概要: Multi-Sentence Knowledge Selection in Open-Domain Dialogue
- arxiv url: http://arxiv.org/abs/2203.00763v1
- Date: Tue, 1 Mar 2022 22:07:05 GMT
- ステータス: 処理完了
- システム内更新日: 2022-03-03 14:51:24.478550
- Title: Multi-Sentence Knowledge Selection in Open-Domain Dialogue
- Title(参考訳): オープンドメイン対話におけるマルチセンテンス知識選択
- Authors: Mihail Eric, Nicole Chartier, Behnam Hedayatnia, Karthik
Gopalakrishnan, Pankaj Rajan, Yang Liu, Dilek Hakkani-Tur
- Abstract要約: オープンドメイン会話知識選択の現況を評価する。
We create a augmented dataset based on the Wizard of Wikipedia (WOW) corpus。
WOW++は、対話コンテキストごとに8つの関連する知識文を平均化する。
- 参考スコア(独自算出の注目度): 11.936691632841388
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Incorporating external knowledge sources effectively in conversations is a
longstanding problem in open-domain dialogue research. The existing literature
on open-domain knowledge selection is limited and makes certain brittle
assumptions on knowledge sources to simplify the overall task (Dinan et al.,
2019), such as the existence of a single relevant knowledge sentence per
context. In this work, we evaluate the existing state of open-domain
conversation knowledge selection, showing where the existing methodologies
regarding data and evaluation are flawed. We then improve on them by proposing
a new framework for collecting relevant knowledge, and create an augmented
dataset based on the Wizard of Wikipedia (WOW) corpus, which we call WOW++.
WOW++ averages 8 relevant knowledge sentences per dialogue context, embracing
the inherent ambiguity of open-domain dialogue knowledge selection. We then
benchmark various knowledge ranking algorithms on this augmented dataset with
both intrinsic evaluation and extrinsic measures of response quality, showing
that neural rerankers that use WOW++ can outperform rankers trained on standard
datasets.
- Abstract(参考訳): 会話に外部知識ソースを効果的に組み込むことは、オープンドメイン対話研究における長年の問題である。
オープンドメイン知識選択に関する既存の文献は限定的であり、コンテキストごとに単一の関連する知識文が存在するなど、知識ソースに対する不安定な仮定を単純化する(Dinan et al., 2019)。
本研究では,データと評価に関する既存の方法論がどこに欠陥があるかを示す,オープンドメイン会話知識選択の既存状態を評価する。
次に、関連する知識を収集するための新しいフレームワークを提案し、ウィザード・オブ・ウィキペディア(wow)コーパスに基づいた拡張データセットを作成することで改善します。
wow++は、対話コンテキストごとに8つの関連する知識文を平均し、オープンドメインの対話知識選択の固有のあいまいさを受け入れている。
次に、この拡張データセット上の様々な知識ランキングアルゴリズムを、本質的な評価と応答品質の外部測定の両方でベンチマークし、WOW++を使用するニューラルリランカが標準データセットでトレーニングされたランキングよりも優れていることを示す。
関連論文リスト
- SOK-Bench: A Situated Video Reasoning Benchmark with Aligned Open-World Knowledge [60.76719375410635]
44Kの質問と10Kの状況からなる新しいベンチマーク(SOK-Bench)を提案する。
推論プロセスは、位置する知識と問題解決のための一般的な知識を理解し、適用するために必要である。
質問応答ペアと推論プロセスを生成し,最後に品質保証に関する手作業によるレビューを行った。
論文 参考訳(メタデータ) (2024-05-15T21:55:31Z) - Improving Retrieval Augmented Open-Domain Question-Answering with Vectorized Contexts [83.57864140378035]
本稿では,オープンドメイン質問応答タスクにおいて,より長いコンテキストをカバーできる手法を提案する。
コンテキストを効果的にエンコードする小さなエンコーダ言語モデルを利用し、エンコーダは元の入力とクロスアテンションを適用する。
微調整後、2つのホールドインデータセット、4つのホールドアウトデータセット、および2つのIn Context Learning設定のパフォーマンスが改善された。
論文 参考訳(メタデータ) (2024-04-02T15:10:11Z) - A Knowledge Plug-and-Play Test Bed for Open-domain Dialogue Generation [51.31429493814664]
マルチソース対話知識の選択と応答生成を評価するために,ウィキペディアのマルチソースウィザードというベンチマークを示す。
本稿では,すでに訓練済みの対話モデルを用いて,未確認の情報源からの新たなサポート知識を利用するための新たな課題である対話知識プラグイン・アンド・プレイを提案する。
論文 参考訳(メタデータ) (2024-03-06T06:54:02Z) - DIVKNOWQA: Assessing the Reasoning Ability of LLMs via Open-Domain
Question Answering over Knowledge Base and Text [73.68051228972024]
大きな言語モデル(LLM)は印象的な生成能力を示すが、内部知識に依存すると幻覚に悩まされる。
検索拡張LDMは、外部知識においてLLMを基盤とする潜在的な解決策として出現している。
論文 参考訳(メタデータ) (2023-10-31T04:37:57Z) - SINC: Service Information Augmented Open-Domain Conversation [46.912064636311825]
動的サービス情報を用いた知識駆動対話システムを提案する。
オープンドメインの中国初のサービス知識対話データセットDuSincをリリースしました。
自動評価と人的評価の両方により,提案手法はオープンドメイン会話の効果を著しく向上させることができることが示された。
論文 参考訳(メタデータ) (2022-06-28T13:41:48Z) - Enhanced Knowledge Selection for Grounded Dialogues via Document
Semantic Graphs [123.50636090341236]
本稿では,背景知識文書を自動的に文書意味グラフに変換することを提案する。
文書意味グラフは文ノードを用いて文レベル情報を保存し,文間の概念接続を提供する。
本実験により,HolEにおける知識選択タスクとエンドツーエンド応答生成タスクの双方において,意味グラフに基づく知識選択が文選択ベースラインよりも改善されることが示されている。
論文 参考訳(メタデータ) (2022-06-15T04:51:32Z) - Commonsense and Named Entity Aware Knowledge Grounded Dialogue
Generation [20.283091595536835]
大規模コモンセンスと名前付きエンティティベース知識を効果的に活用するオープンドメイン対話生成モデルを提案する。
提案モデルでは,対話履歴と関連する知識の最も正確かつ重要な部分を保存するために,マルチホップアテンション層を利用する。
2つのベンチマークデータセットの実証結果は、我々のモデルが自動評価指標と人的判断の両方で最先端の手法を大幅に上回っていることを示している。
論文 参考訳(メタデータ) (2022-05-27T12:11:40Z) - Achieving Conversational Goals with Unsupervised Post-hoc Knowledge
Injection [37.15893335147598]
現在のニューラルダイアログモデルの制限は、生成された応答における特異性と情報性の欠如に悩まされる傾向があることである。
本稿では,対話履歴と既存の対話モデルから初期応答の両方を条件とした,多様な知識スニペットの集合を検索する,ポストホックな知識注入手法を提案する。
我々は,各検索したスニペットを,勾配に基づく復号法を用いて初期応答に個別に注入し,教師なしランキングステップで最終応答を選択する複数の候補応答を構築する。
論文 参考訳(メタデータ) (2022-03-22T00:42:27Z) - Open Domain Question Answering over Virtual Documents: A Unified
Approach for Data and Text [62.489652395307914]
我々は、知識集約型アプリケーションのための構造化知識を符号化する手段として、Data-to-text法、すなわち、オープンドメイン質問応答(QA)を用いる。
具体的には、ウィキペディアとウィキソースの3つのテーブルを付加知識源として使用する、データとテキスト上でのオープンドメインQAのための冗長化-レトリバー・リーダー・フレームワークを提案する。
UDT-QA(Unified Data and Text QA)は,知識インデックスの拡大を効果的に活用できることを示す。
論文 参考訳(メタデータ) (2021-10-16T00:11:21Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。