論文の概要: Joint Reasoning on Hybrid-knowledge sources for Task-Oriented Dialog
- arxiv url: http://arxiv.org/abs/2210.07295v1
- Date: Thu, 13 Oct 2022 18:49:59 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-17 15:15:39.652454
- Title: Joint Reasoning on Hybrid-knowledge sources for Task-Oriented Dialog
- Title(参考訳): タスク指向対話のためのハイブリッド知識源の結合推論
- Authors: Mayank Mishra, Danish Contractor, Dinesh Raghu
- Abstract要約: 本稿では,SeKnow が作成した MutliWOZ ベースのデータセットの修正版について述べる。
事前訓練された言語モデルを利用する最近の作業に合わせて、知識ソースをクエリするタスクのプロンプトを使用してBARTベースのモデルを微調整する。
我々は,本モデルが知識モダリティ(情報源)の摂動に頑健であり,構造化知識と非構造化知識とを融合して応答を生成できることを実証した。
- 参考スコア(独自算出の注目度): 12.081212540168055
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Traditional systems designed for task oriented dialog utilize knowledge
present only in structured knowledge sources to generate responses. However,
relevant information required to generate responses may also reside in
unstructured sources, such as documents. Recent state of the art models such as
HyKnow and SeKnow aimed at overcoming these challenges make limiting
assumptions about the knowledge sources. For instance, these systems assume
that certain types of information, such as a phone number, is always present in
a structured KB while information about aspects such as entrance ticket prices
would always be available in documents.
In this paper, we create a modified version of the MutliWOZ based dataset
prepared by SeKnow to demonstrate how current methods have significant
degradation in performance when strict assumptions about the source of
information are removed. Then, in line with recent work exploiting pre-trained
language models, we fine-tune a BART based model using prompts for the tasks of
querying knowledge sources, as well as, for response generation, without making
assumptions about the information present in each knowledge source. Through a
series of experiments, we demonstrate that our model is robust to perturbations
to knowledge modality (source of information), and that it can fuse information
from structured as well as unstructured knowledge to generate responses.
- Abstract(参考訳): タスク指向対話のために設計された従来のシステムは、構造化知識源にのみ存在する知識を利用して応答を生成する。
しかし、応答を生成するのに必要な関連情報は、文書などの非構造化ソースに存在することもある。
近年のHyKnowやSeKnowといったアートモデルは、これらの課題を克服することを目的としており、知識ソースに関する仮定を制限している。
例えば、これらのシステムは、電話番号のような特定の種類の情報は常に構造化KBに存在すると仮定し、入場券の価格などの側面に関する情報は文書で常に利用可能である。
本稿では,seknow が作成した mutliwoz ベースのデータセットの修正版を作成し,情報ソースに関する厳密な仮定を取り除いた場合の現在の手法の性能が著しく低下することを示す。
そして, 学習済み言語モデルを利用した最近の研究に合わせて, 各知識ソースに存在する情報について仮定することなく, 知識ソースを問合せするタスクや応答生成のためのプロンプトを用いてBARTベースのモデルを微調整する。
一連の実験を通じて,我々のモデルが知識モダリティ(情報源)に対する摂動に頑健であること,構造化された知識と非構造化知識とを融合して応答を発生できることを実証した。
関連論文リスト
- Establishing Knowledge Preference in Language Models [80.70632813935644]
言語モデルは事前学習を通じて大量の事実知識を符号化することが知られている。
このような知識はユーザーからの要求に応えるには不十分かもしれない。
進行中のイベントに関する質問に答える場合には、最新のニュース記事を使って回答を更新する必要がある。
ある事実がモデルで編集されると、更新された事実はモデルによって学習されたすべての事前知識をオーバーライドする。
論文 参考訳(メタデータ) (2024-07-17T23:16:11Z) - A Knowledge Plug-and-Play Test Bed for Open-domain Dialogue Generation [51.31429493814664]
マルチソース対話知識の選択と応答生成を評価するために,ウィキペディアのマルチソースウィザードというベンチマークを示す。
本稿では,すでに訓練済みの対話モデルを用いて,未確認の情報源からの新たなサポート知識を利用するための新たな課題である対話知識プラグイン・アンド・プレイを提案する。
論文 参考訳(メタデータ) (2024-03-06T06:54:02Z) - Semi-Structured Chain-of-Thought: Integrating Multiple Sources of Knowledge for Improved Language Model Reasoning [10.839645156881573]
本稿では,テキスト文書からの非構造化知識と知識グラフからの構造化知識とをシームレスに統合する,新しい半構造化プロンプト手法を提案する。
オープンドメイン型マルチホップ質問応答データセットの実験結果から,提案手法が既存の手法を大幅に上回ることを示す。
論文 参考訳(メタデータ) (2023-11-14T19:53:53Z) - Large Language Models as Source Planner for Personalized
Knowledge-grounded Dialogue [72.26474540602517]
SAFARIは、教師なしと教師なしの両方の設定で計画し、理解し、導入するための新しいフレームワークである。
我々は、パーソナライズされた知識ベース対話データセットtextittextbfKnowledge textbfBehind textbfPersona(textbfKBP)を構築する。
KBPデータセットによる実験結果から,SAFARIフレームワークはペルソナ一貫性と知識強化の応答を効果的に生成できることが示された。
論文 参考訳(メタデータ) (2023-10-13T03:38:38Z) - UNTER: A Unified Knowledge Interface for Enhancing Pre-trained Language
Models [100.4659557650775]
構造化知識と非構造化知識の両方を活用する統一的な視点を提供するために、統一知識インターフェイスUNTERを提案する。
どちらの形態の知識も注入され、UNTERは一連の知識駆動NLPタスクの継続的な改善を得る。
論文 参考訳(メタデータ) (2023-05-02T17:33:28Z) - The KITMUS Test: Evaluating Knowledge Integration from Multiple Sources
in Natural Language Understanding Systems [87.3207729953778]
我々は、データセット上で最先端のコア参照解決モデルを評価する。
いくつかのモデルは、事前訓練時間と推論時間の両方で観察された知識について、オンザフライで推論するのに苦労している。
それでも、最高のパフォーマンスモデルでさえ、推論時にのみ提示される知識を確実に統合するのは難しいようです。
論文 参考訳(メタデータ) (2022-12-15T23:26:54Z) - LM-CORE: Language Models with Contextually Relevant External Knowledge [13.451001884972033]
モデルパラメータに大量の知識を格納することは、絶え間なく増加する知識とリソースの要求を考えると、準最適である、と我々は主張する。
LM-CORE - これを実現するための一般的なフレームワークで、外部の知識ソースから言語モデルのトレーニングをテキストデカップリングすることができる。
実験結果から, LM-COREは知識探索タスクにおいて, 最先端の知識強化言語モデルよりも大きく, 堅牢な性能を実現していることがわかった。
論文 参考訳(メタデータ) (2022-08-12T18:59:37Z) - Knowledge-Grounded Dialogue Generation with a Unified Knowledge
Representation [78.85622982191522]
既存のシステムは、トレーニングデータでカバーされる限られたトピックのために、目に見えないトピックでうまく機能しない。
本稿では,異なる知識源を均質化した言語モデルであるPLUGについて述べる。
完全に教師された設定の下で最先端のメソッドと同等のパフォーマンスを達成することができる。
論文 参考訳(メタデータ) (2021-12-15T07:11:02Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。