論文の概要: Large Language Models as Source Planner for Personalized
Knowledge-grounded Dialogue
- arxiv url: http://arxiv.org/abs/2310.08840v1
- Date: Fri, 13 Oct 2023 03:38:38 GMT
- ステータス: 処理完了
- システム内更新日: 2023-10-16 14:31:59.123029
- Title: Large Language Models as Source Planner for Personalized
Knowledge-grounded Dialogue
- Title(参考訳): パーソナライズド・ナレッジ・グラウンドド・対話のためのソース・プランナーとしての大規模言語モデル
- Authors: Hongru Wang, Minda Hu, Yang Deng, Rui Wang, Fei Mi, Weichao Wang,
Yasheng Wang, Wai-Chung Kwan, Irwin King, Kam-Fai Wong
- Abstract要約: SAFARIは、教師なしと教師なしの両方の設定で計画し、理解し、導入するための新しいフレームワークである。
我々は、パーソナライズされた知識ベース対話データセットtextittextbfKnowledge textbfBehind textbfPersona(textbfKBP)を構築する。
KBPデータセットによる実験結果から,SAFARIフレームワークはペルソナ一貫性と知識強化の応答を効果的に生成できることが示された。
- 参考スコア(独自算出の注目度): 72.26474540602517
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Open-domain dialogue system usually requires different sources of knowledge
to generate more informative and evidential responses. However, existing
knowledge-grounded dialogue systems either focus on a single knowledge source
or overlook the dependency between multiple sources of knowledge, which may
result in generating inconsistent or even paradoxical responses. To incorporate
multiple knowledge sources and dependencies between them, we propose SAFARI, a
novel framework that leverages the exceptional capabilities of large language
models (LLMs) in planning, understanding, and incorporating under both
supervised and unsupervised settings. Specifically, SAFARI decouples the
knowledge grounding into multiple sources and response generation, which allows
easy extension to various knowledge sources including the possibility of not
using any sources. To study the problem, we construct a personalized
knowledge-grounded dialogue dataset \textit{\textbf{K}nowledge \textbf{B}ehind
\textbf{P}ersona}~(\textbf{KBP}), which is the first to consider the dependency
between persona and implicit knowledge. Experimental results on the KBP dataset
demonstrate that the SAFARI framework can effectively produce
persona-consistent and knowledge-enhanced responses.
- Abstract(参考訳): オープンドメイン対話システムは通常、より情報的で明確な応答を生成するために異なる知識源を必要とする。
しかし、既存の知識基盤対話システムは、単一の知識ソースにフォーカスするか、複数の知識ソース間の依存関係を見落とし、矛盾やパラドックス的な応答を生じさせる可能性がある。
複数の知識ソースとそれらの間の依存関係を組み込むために,大規模言語モデル(LLM)の,教師なしと教師なしの両方の環境下での計画,理解,導入における異常な能力を活用する新しいフレームワークであるSAFARIを提案する。
具体的には、SAFARIは複数のソースに根ざした知識と応答生成を分離し、ソースを使わない可能性を含む様々な知識ソースへの容易に拡張を可能にする。
そこで本研究では,ペルソナと暗黙的知識の依存関係を初めて考慮した,個人化された知識ベース対話データセットである「textit{\textbf{K}nowledge \textbf{B}ehind \textbf{P}ersona}~(\textbf{KBP})」を構築した。
KBPデータセットによる実験結果から,SAFARIフレームワークはペルソナ一貫性と知識強化の応答を効果的に生成できることが示された。
関連論文リスト
- A Knowledge Plug-and-Play Test Bed for Open-domain Dialogue Generation [51.31429493814664]
マルチソース対話知識の選択と応答生成を評価するために,ウィキペディアのマルチソースウィザードというベンチマークを示す。
本稿では,すでに訓練済みの対話モデルを用いて,未確認の情報源からの新たなサポート知識を利用するための新たな課題である対話知識プラグイン・アンド・プレイを提案する。
論文 参考訳(メタデータ) (2024-03-06T06:54:02Z) - Semi-Structured Chain-of-Thought: Integrating Multiple Sources of Knowledge for Improved Language Model Reasoning [10.839645156881573]
本稿では,テキスト文書からの非構造化知識と知識グラフからの構造化知識とをシームレスに統合する,新しい半構造化プロンプト手法を提案する。
オープンドメイン型マルチホップ質問応答データセットの実験結果から,提案手法が既存の手法を大幅に上回ることを示す。
論文 参考訳(メタデータ) (2023-11-14T19:53:53Z) - DIVKNOWQA: Assessing the Reasoning Ability of LLMs via Open-Domain
Question Answering over Knowledge Base and Text [73.68051228972024]
大きな言語モデル(LLM)は印象的な生成能力を示すが、内部知識に依存すると幻覚に悩まされる。
検索拡張LDMは、外部知識においてLLMを基盤とする潜在的な解決策として出現している。
論文 参考訳(メタデータ) (2023-10-31T04:37:57Z) - UNTER: A Unified Knowledge Interface for Enhancing Pre-trained Language
Models [100.4659557650775]
構造化知識と非構造化知識の両方を活用する統一的な視点を提供するために、統一知識インターフェイスUNTERを提案する。
どちらの形態の知識も注入され、UNTERは一連の知識駆動NLPタスクの継続的な改善を得る。
論文 参考訳(メタデータ) (2023-05-02T17:33:28Z) - Joint Reasoning on Hybrid-knowledge sources for Task-Oriented Dialog [12.081212540168055]
本稿では,SeKnow が作成した MutliWOZ ベースのデータセットの修正版について述べる。
事前訓練された言語モデルを利用する最近の作業に合わせて、知識ソースをクエリするタスクのプロンプトを使用してBARTベースのモデルを微調整する。
我々は,本モデルが知識モダリティ(情報源)の摂動に頑健であり,構造化知識と非構造化知識とを融合して応答を生成できることを実証した。
論文 参考訳(メタデータ) (2022-10-13T18:49:59Z) - Multimodal Dialog Systems with Dual Knowledge-enhanced Generative Pretrained Language Model [63.461030694700014]
マルチモーダルなタスク指向対話システム(DKMD)のための新しい二元的知識強化型事前学習言語モデルを提案する。
提案したDKMDは,2つの知識選択,2つの知識強調型文脈学習,知識強調型応答生成という3つの重要なコンポーネントから構成される。
パブリックデータセットの実験は、最先端の競合相手よりも提案されたDKMDの優位性を検証する。
論文 参考訳(メタデータ) (2022-07-16T13:02:54Z) - Knowledge-Grounded Dialogue Generation with a Unified Knowledge
Representation [78.85622982191522]
既存のシステムは、トレーニングデータでカバーされる限られたトピックのために、目に見えないトピックでうまく機能しない。
本稿では,異なる知識源を均質化した言語モデルであるPLUGについて述べる。
完全に教師された設定の下で最先端のメソッドと同等のパフォーマンスを達成することができる。
論文 参考訳(メタデータ) (2021-12-15T07:11:02Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。