論文の概要: KnowPrefix-Tuning: A Two-Stage Prefix-Tuning Framework for
Knowledge-Grounded Dialogue Generation
- arxiv url: http://arxiv.org/abs/2306.15430v1
- Date: Tue, 27 Jun 2023 12:38:49 GMT
- ステータス: 処理完了
- システム内更新日: 2023-06-28 13:32:12.844258
- Title: KnowPrefix-Tuning: A Two-Stage Prefix-Tuning Framework for
Knowledge-Grounded Dialogue Generation
- Title(参考訳): KnowPrefix-Tuning:知識付き対話生成のための2段階事前修正フレームワーク
- Authors: Jiaqi Bai, Zhao Yan, Jian Yang, Xinnian Liang, Hongcheng Guo, Zhoujun
Li
- Abstract要約: 既存の知識基底型会話システムは、典型的には検索・仮説生成方式で応答を生成する。
本稿では,事前知識を軽量な知識接頭辞に注入することにより,検索プロセスをバイパスする2段階のチューニングフレームワークを提案する。
KnowPrefix-Tuningは、微調整や他の軽量チューニングアプローチよりも優れています。
- 参考スコア(独自算出の注目度): 37.36605012674462
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Existing knowledge-grounded conversation systems generate responses typically
in a retrieve-then-generate manner. They require a large knowledge base and a
strong knowledge retrieval component, which is time- and resource-consuming. In
this paper, we address the challenge by leveraging the inherent knowledge
encoded in the pre-trained language models (PLMs). We propose Knowledgeable
Prefix Tuning (KnowPrefix-Tuning), a two-stage tuning framework, bypassing the
retrieval process in a knowledge-grounded conversation system by injecting
prior knowledge into the lightweight knowledge prefix. The knowledge prefix is
a sequence of continuous knowledge-specific vectors that can be learned during
training. In addition, we propose a novel interactive re-parameterization
mechanism that allows the prefix to interact fully with the PLM during the
optimization of response generation. Experimental results demonstrate that
KnowPrefix-Tuning outperforms fine-tuning and other lightweight tuning
approaches, and performs comparably with strong retrieval-based baselines while
being $3\times$ faster during inference.
- Abstract(参考訳): 既存のナレッジ・グラウンド・会話システムは、通常、レトリーブ・ザ・ジェネレーション方式で応答を生成する。
膨大な知識ベースと、時間とリソースを要する強力な知識検索コンポーネントが必要です。
本稿では,事前学習言語モデル(PLM)に符号化された固有知識を活用することで,課題に対処する。
本稿では,知識接地会話システムにおける検索プロセスを回避し,知識接頭辞に事前知識を注入する二段階チューニングフレームワークである知識有頭辞チューニング(knowprefix-tuning,knowprefix-tuning,knowprefix-tuning,knowprefix-tuning)を提案する。
知識接頭辞は、訓練中に学習できる連続した知識固有のベクトルの列である。
さらに,応答生成の最適化において,プレフィックスがplmと完全に相互作用できる新しい対話型再パラメータ化機構を提案する。
実験の結果、KnowPrefix-Tuningは微調整や他の軽量チューニング手法より優れており、推論中に3/times$の高速さで強力な検索ベースラインと互換性があることがわかった。
関連論文リスト
- TRELM: Towards Robust and Efficient Pre-training for Knowledge-Enhanced Language Models [31.209774088374374]
本稿では,知識強化言語モデルのためのロバストかつ効率的な事前学習フレームワークであるTRELMを紹介する。
我々は、知識を3倍に注入するための堅牢なアプローチと、価値ある情報を取得するための知識強化されたメモリバンクを採用しています。
我々は,TRELMが事前学習時間を少なくとも50%削減し,知識探索タスクや複数の知識認識言語理解タスクにおいて,他のKEPLMよりも優れていることを示す。
論文 参考訳(メタデータ) (2024-03-17T13:04:35Z) - Improving Factual Consistency for Knowledge-Grounded Dialogue Systems
via Knowledge Enhancement and Alignment [77.56326872997407]
事前訓練言語モデル(PLM)に基づく知識基底対話システムは、提供された知識源と実際に矛盾しない応答を生成する傾向にある。
トランスフォーマー内のフィードフォワードネットワーク(FFN)が事実知識表現の責任を負っていると判断する以前の研究から着想を得て,事実表現能力を効率的に改善するための2つの方法を検討した。
論文 参考訳(メタデータ) (2023-10-12T14:44:05Z) - UNTER: A Unified Knowledge Interface for Enhancing Pre-trained Language
Models [100.4659557650775]
構造化知識と非構造化知識の両方を活用する統一的な視点を提供するために、統一知識インターフェイスUNTERを提案する。
どちらの形態の知識も注入され、UNTERは一連の知識駆動NLPタスクの継続的な改善を得る。
論文 参考訳(メタデータ) (2023-05-02T17:33:28Z) - Decoupling Knowledge from Memorization: Retrieval-augmented Prompt
Learning [113.58691755215663]
一般化と記憶のバランスをとるためにRetroPromptを開発した。
バニラプロンプト学習とは対照的に、RetroPromptはトレーニングインスタンスからオープンブックナレッジストアを構築する。
大規模な実験により、RetroPromptは、数ショットとゼロショットの両方で、より良いパフォーマンスを得ることができることが示されている。
論文 参考訳(メタデータ) (2022-05-29T16:07:30Z) - Retrieval-Free Knowledge-Grounded Dialogue Response Generation with
Adapters [52.725200145600624]
軽量アダプタで事前学習した言語モデルに事前知識を注入し、検索プロセスをバイパスする KnowExpert を提案する。
実験結果から,KnowExpertは検索ベースラインと相容れない性能を示した。
論文 参考訳(メタデータ) (2021-05-13T12:33:23Z) - KnowPrompt: Knowledge-aware Prompt-tuning with Synergistic Optimization
for Relation Extraction [111.74812895391672]
シナジスティック最適化(KnowPrompt)を用いた知識認識型Promptチューニング手法を提案する。
関係ラベルに含まれる潜在知識をインジェクトして,学習可能な仮想型語と解答語で構築する。
論文 参考訳(メタデータ) (2021-04-15T17:57:43Z) - K-XLNet: A General Method for Combining Explicit Knowledge with Language
Model Pretraining [5.178964604577459]
明示的な知識を活用することで、モデルの事前訓練を改善することに重点を置いています。
具体的には、まず知識グラフ(KG)から知識事実をマッチングし、次に直接変換器に知識命令層を追加する。
実験の結果,変圧器に外部知識を加えるだけで,多くのNLPタスクにおける学習性能が向上することが示された。
論文 参考訳(メタデータ) (2021-03-25T06:14:18Z) - REALM: Retrieval-Augmented Language Model Pre-Training [37.3178586179607]
言語モデルの事前学習を潜伏知識検索システムで強化し,ウィキペディアのような大規模コーパスから文書を検索し,出席できるようにする。
本研究では,このような知識検索を教師なしで事前学習する方法を初めて示す。
オープンドメイン質問回答(Open-QA)の課題を微調整し,検索型言語モデル事前学習(REALM)の有効性を実証する。
論文 参考訳(メタデータ) (2020-02-10T18:40:59Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。