論文の概要: Well Begun is Half Done: Generator-agnostic Knowledge Pre-Selection for
Knowledge-Grounded Dialogue
- arxiv url: http://arxiv.org/abs/2310.07659v1
- Date: Wed, 11 Oct 2023 17:00:29 GMT
- ステータス: 処理完了
- システム内更新日: 2023-10-12 21:37:57.192253
- Title: Well Begun is Half Done: Generator-agnostic Knowledge Pre-Selection for
Knowledge-Grounded Dialogue
- Title(参考訳): Well Begun is Half Done: Generator-Agnostic Knowledge Pre-Selection for Knowledge-Grounded Dialogue
- Authors: Qin Lang, Zhang Yao, Liang Hongru, Wang jun, Yang Zhenglu
- Abstract要約: 本研究は,事前知識を正確に選択できるだけでなく,学習,調整,解釈の負担を軽減できるという利点がある第3のアンダーサーサーサーサーサーサーサーサーサー研究に焦点をあてる。
本稿では,ジェネレータに依存しない知識選択手法であるGATEを提案する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Accurate knowledge selection is critical in knowledge-grounded dialogue
systems. Towards a closer look at it, we offer a novel perspective to organize
existing literature, i.e., knowledge selection coupled with, after, and before
generation. We focus on the third under-explored category of study, which can
not only select knowledge accurately in advance, but has the advantage to
reduce the learning, adjustment, and interpretation burden of subsequent
response generation models, especially LLMs. We propose GATE, a
generator-agnostic knowledge selection method, to prepare knowledge for
subsequent response generation models by selecting context-related knowledge
among different knowledge structures and variable knowledge requirements.
Experimental results demonstrate the superiority of GATE, and indicate that
knowledge selection before generation is a lightweight yet effective way to
facilitate LLMs (e.g., ChatGPT) to generate more informative responses.
- Abstract(参考訳): 正確な知識選択は知識接地対話システムにおいて不可欠である。
より深く見ていくために、私たちは既存の文学、すなわち知識の選択を、世代、後、前と組み合わせて組織化するための新しい視点を提供する。
本研究は,前もって知識を正確に選択できるだけでなく,後続の応答生成モデル,特にllmの学習,調整,解釈の負担を軽減することができる。
異なる知識構造と可変知識要求の中から文脈関連知識を選択することにより,後続の応答生成モデルに対する知識を作成できる,ジェネレータ非依存な知識選択手法であるgateを提案する。
実験の結果、GATEの優位性を示し、生成前の知識選択がLSM(例えばChatGPT)を促進し、より情報的な応答を生成するための軽量で効果的な方法であることを示す。
関連論文リスト
- A Knowledge Plug-and-Play Test Bed for Open-domain Dialogue Generation [51.31429493814664]
マルチソース対話知識の選択と応答生成を評価するために,ウィキペディアのマルチソースウィザードというベンチマークを示す。
本稿では,すでに訓練済みの対話モデルを用いて,未確認の情報源からの新たなサポート知識を利用するための新たな課題である対話知識プラグイン・アンド・プレイを提案する。
論文 参考訳(メタデータ) (2024-03-06T06:54:02Z) - Beyond Factuality: A Comprehensive Evaluation of Large Language Models
as Knowledge Generators [78.63553017938911]
大規模言語モデル(LLM)は、下流の知識集約タスクのための情報検索技術より優れている。
しかし、コミュニティの懸念は、この無検閲の知識を使用することの事実と潜在的意味について多岐にわたる。
本研究では,6つの重要な視点から生成した知識を評価するために設計されたCONNERを紹介する。
論文 参考訳(メタデータ) (2023-10-11T08:22:37Z) - Generative Knowledge Selection for Knowledge-Grounded Dialogues [40.47433331803577]
我々は、GenKSと呼ばれる知識選択のためのシンプルで効果的な生成手法を提案する。
GenKSは、シーケンス対シーケンスモデルで識別子を生成することで、スニペットを選択することを学ぶ。
我々は3つのベンチマークデータセットで実験を行い、GenKSが知識選択と応答生成の両方において最良の結果が得られることを検証した。
論文 参考訳(メタデータ) (2023-04-10T19:49:55Z) - A Survey of Knowledge Enhanced Pre-trained Language Models [78.56931125512295]
我々は、知識強化事前学習言語モデル(KE-PLMs)の包括的なレビューを行う。
NLUでは、言語知識、テキスト知識、知識グラフ(KG)、ルール知識の4つのカテゴリに分類する。
NLGのKE-PLMは、KGベースと検索ベースに分類される。
論文 参考訳(メタデータ) (2022-11-11T04:29:02Z) - Knowledge-Grounded Dialogue with Reward-Driven Knowledge Selection [1.1633929083694388]
Knoformerは強化学習に基づく対話応答生成モデルである。
知識プールから1つ以上の関連する知識を自動的に選択することができ、トレーニング中に知識ラベルを必要としない。
論文 参考訳(メタデータ) (2021-08-31T08:53:08Z) - Retrieval-Free Knowledge-Grounded Dialogue Response Generation with
Adapters [52.725200145600624]
軽量アダプタで事前学習した言語モデルに事前知識を注入し、検索プロセスをバイパスする KnowExpert を提案する。
実験結果から,KnowExpertは検索ベースラインと相容れない性能を示した。
論文 参考訳(メタデータ) (2021-05-13T12:33:23Z) - Prediction, Selection, and Generation: Exploration of Knowledge-Driven
Conversation System [24.537862151735006]
オープンドメインの会話システムでは、背景知識を活用することは重要だが難しい。
知識ベースと事前学習モデルを組み合わせて,知識駆動会話システムを提案する。
知識駆動対話の生成に影響を与える可能性のあるパフォーマンス要因について検討する。
論文 参考訳(メタデータ) (2021-04-23T07:59:55Z) - Difference-aware Knowledge Selection for Knowledge-grounded Conversation
Generation [101.48602006200409]
マルチターン・ナレッジ・グラウンドド・ダイアログのための差分認識型知識選択手法を提案する。
まず、現在のターンで提供される候補知識文と、前のターンで選択された候補知識文との差を計算する。
そして、差分情報を文脈情報と融合または解離させ、最終的な知識選択を容易にする。
論文 参考訳(メタデータ) (2020-09-20T07:47:26Z) - Knowledge-graph based Proactive Dialogue Generation with Improved
Meta-Learning [0.0]
本稿では,知識グラフに基づく3つのコンポーネントを用いたプロアクティブ対話生成モデル(KgDg)を提案する。
知識三重項の埋め込みと選択については、文の埋め込みの問題として定式化し、意味情報をよりよく捉える。
改良されたMAMLアルゴリズムは,限られた知識グラフから一般的な特徴を学習することができる。
論文 参考訳(メタデータ) (2020-04-19T08:41:12Z) - Sequential Latent Knowledge Selection for Knowledge-Grounded Dialogue [51.513276162736844]
この問題に対する最初のアプローチとして,逐次潜在変数モデルを提案する。
シーケンシャル・ナレッジ・トランスフォーマー (SKT) という名前のモデルは、知識よりも先行と後続の分布を追跡することができる。
論文 参考訳(メタデータ) (2020-02-18T11:59:59Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。