論文の概要: PLATO-K: Internal and External Knowledge Enhanced Dialogue Generation
- arxiv url: http://arxiv.org/abs/2211.00910v1
- Date: Wed, 2 Nov 2022 06:23:16 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-03 13:10:21.076423
- Title: PLATO-K: Internal and External Knowledge Enhanced Dialogue Generation
- Title(参考訳): PLATO-K:内部知識と外部知識による対話生成
- Authors: Siqi Bao, Huang He, Jun Xu, Hua Lu, Fan Wang, Hua Wu, Han Zhou,
Wenquan Wu, Zheng-Yu Niu, Haifeng Wang
- Abstract要約: 内部知識と外部知識の活用を強化するために,二段階対話学習に基づくPLATO-Kを導入する。
最初の段階では、PLATO-Kは大量の対話コーパスを通して学習し、重要な知識をモデルパラメータに記憶する。
第2段階では、PLATO-Kは人間を模倣して外部情報を探し出し、応答生成における知識を活用する。
- 参考スコア(独自算出の注目度): 49.43839526180323
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Recently, the practical deployment of open-domain dialogue systems has been
plagued by the knowledge issue of information deficiency and factual
inaccuracy. To this end, we introduce PLATO-K based on two-stage dialogic
learning to strengthen internal knowledge memorization and external knowledge
exploitation. In the first stage, PLATO-K learns through massive dialogue
corpora and memorizes essential knowledge into model parameters. In the second
stage, PLATO-K mimics human beings to search for external information and to
leverage the knowledge in response generation. Extensive experiments reveal
that the knowledge issue is alleviated significantly in PLATO-K with such
comprehensive internal and external knowledge enhancement. Compared to the
existing state-of-the-art Chinese dialogue model, the overall engagingness of
PLATO-K is improved remarkably by 36.2% and 49.2% on chit-chat and
knowledge-intensive conversations.
- Abstract(参考訳): 近年,オープンドメイン対話システムの実践的展開は,情報不足と事実不正確性の知識問題に悩まされている。
この目的のために,2段階対話学習に基づくPLATO-Kを導入し,内部知識の記憶と外部知識の活用を強化する。
最初の段階では、PLATO-Kは大量の対話コーパスを通して学習し、重要な知識をモデルパラメータに記憶する。
第2段階では、PLATO-Kは人間を模倣して外部情報を探し出し、応答生成における知識を活用する。
包括的実験により, PLATO-Kにおける知識問題は, 包括的内部知識と外部知識の強化によって著しく緩和されることがわかった。
既存の中国の対話モデルと比較して、plato-kの全体的なエンゲージメントは、チットチャットと知識集約的な会話において36.2%と49.2%改善されている。
関連論文リスト
- Beyond Factuality: A Comprehensive Evaluation of Large Language Models
as Knowledge Generators [78.63553017938911]
大規模言語モデル(LLM)は、下流の知識集約タスクのための情報検索技術より優れている。
しかし、コミュニティの懸念は、この無検閲の知識を使用することの事実と潜在的意味について多岐にわたる。
本研究では,6つの重要な視点から生成した知識を評価するために設計されたCONNERを紹介する。
論文 参考訳(メタデータ) (2023-10-11T08:22:37Z) - The Knowledge Alignment Problem: Bridging Human and External Knowledge for Large Language Models [65.80573571314534]
MixAlignは、ユーザと知識ベースの両方と対話して、ユーザの質問が格納された情報とどのように関連しているかを把握し、統合するフレームワークである。
実験結果から、モデル性能の向上と幻覚の緩和における知識アライメントの重要性が強調され、それぞれ22.2%と27.1%の改善が指摘された。
論文 参考訳(メタデータ) (2023-05-23T04:22:50Z) - KPT: Keyword-guided Pre-training for Grounded Dialog Generation [82.68787152707455]
KPT(Guided Pre-Training)は,グラウンドドダイアログ生成のための自己教師付き事前学習手法である。
具体的には、事前訓練された言語モデルを用いて、ダイアログ内の最も不確実なトークンをキーワードとして抽出する。
我々は,対話行為,知識グラフ,ペルソナ記述,ウィキペディアの文節など,数発の知識ベース生成タスクについて広範な実験を行った。
論文 参考訳(メタデータ) (2022-12-04T04:05:01Z) - SINC: Service Information Augmented Open-Domain Conversation [46.912064636311825]
動的サービス情報を用いた知識駆動対話システムを提案する。
オープンドメインの中国初のサービス知識対話データセットDuSincをリリースしました。
自動評価と人的評価の両方により,提案手法はオープンドメイン会話の効果を著しく向上させることができることが示された。
論文 参考訳(メタデータ) (2022-06-28T13:41:48Z) - Lexical Knowledge Internalization for Neural Dialog Generation [36.27946635687281]
本稿では,語彙的知識をニューラルダイアログモデルに補完することを目的とした知識内在化(KI)を提案する。
語彙知識の大規模化による課題に対処するため,コントラスト学習アプローチを採用し,トークンレベルの語彙知識検索を効果的に行う。
論文 参考訳(メタデータ) (2022-05-04T08:23:44Z) - Open-domain Dialogue Generation Grounded with Dynamic Multi-form
Knowledge Fusion [9.45662259790057]
本稿では,新しい対話生成モデルである動的マルチフォーム知識融合に基づくオープンドメインチャットマシン(DMKCM)を提案する。
DMKCMは、関連文書を第1ホップとして見つけるためにインデックス付きテキスト(仮想知識ベース)を適用し、その後、コモンセンス知識グラフを使用して対話の内容と第1ホップを拡張して、アポサイトトリプルを第2ホップとして取得する。
実験結果から,対話のコヒーレンスと情報提供性の観点から,本手法の有効性が示唆された。
論文 参考訳(メタデータ) (2022-04-24T10:32:48Z) - Knowledge-Grounded Dialogue with Reward-Driven Knowledge Selection [1.1633929083694388]
Knoformerは強化学習に基づく対話応答生成モデルである。
知識プールから1つ以上の関連する知識を自動的に選択することができ、トレーニング中に知識ラベルを必要としない。
論文 参考訳(メタデータ) (2021-08-31T08:53:08Z) - Sequential Latent Knowledge Selection for Knowledge-Grounded Dialogue [51.513276162736844]
この問題に対する最初のアプローチとして,逐次潜在変数モデルを提案する。
シーケンシャル・ナレッジ・トランスフォーマー (SKT) という名前のモデルは、知識よりも先行と後続の分布を追跡することができる。
論文 参考訳(メタデータ) (2020-02-18T11:59:59Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。