論文の概要: Lexical Knowledge Internalization for Neural Dialog Generation
- arxiv url: http://arxiv.org/abs/2205.01941v1
- Date: Wed, 4 May 2022 08:23:44 GMT
- ステータス: 処理完了
- システム内更新日: 2022-05-05 21:52:11.118647
- Title: Lexical Knowledge Internalization for Neural Dialog Generation
- Title(参考訳): ニューラルダイアログ生成のための語彙知識内在化
- Authors: Zhiyong Wu, Wei Bi, Xiang Li, Lingpeng Kong, Ben Kao
- Abstract要約: 本稿では,語彙的知識をニューラルダイアログモデルに補完することを目的とした知識内在化(KI)を提案する。
語彙知識の大規模化による課題に対処するため,コントラスト学習アプローチを採用し,トークンレベルの語彙知識検索を効果的に行う。
- 参考スコア(独自算出の注目度): 36.27946635687281
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: We propose knowledge internalization (KI), which aims to complement the
lexical knowledge into neural dialog models. Instead of further conditioning
the knowledge-grounded dialog (KGD) models on externally retrieved knowledge,
we seek to integrate knowledge about each input token internally into the
model's parameters. To tackle the challenge due to the large scale of lexical
knowledge, we adopt the contrastive learning approach and create an effective
token-level lexical knowledge retriever that requires only weak supervision
mined from Wikipedia. We demonstrate the effectiveness and general
applicability of our approach on various datasets and diversified model
structures.
- Abstract(参考訳): 本稿では,語彙的知識をニューラルダイアログモデルに補完することを目的とした知識内在化(KI)を提案する。
外部から取得した知識に基づいて知識基底ダイアログ(KGD)モデルを更に条件付けする代わりに,各入力トークンに関する知識をモデルパラメータに組み込む。
辞書知識の大規模化による課題に取り組むため,コントラスト学習アプローチを採用し,wikipediaの弱い監督を必要とする効果的なトークンレベルの語彙知識検索システムを構築した。
様々なデータセットと多様なモデル構造に対するアプローチの有効性と汎用性を示す。
関連論文リスト
- Chain-of-Knowledge: Integrating Knowledge Reasoning into Large Language Models by Learning from Knowledge Graphs [55.317267269115845]
Chain-of-Knowledge (CoK)は知識推論のための包括的なフレームワークである。
CoKにはデータセット構築とモデル学習の両方のための方法論が含まれている。
KnowReasonで広範な実験を行う。
論文 参考訳(メタデータ) (2024-06-30T10:49:32Z) - Large Language Models are Limited in Out-of-Context Knowledge Reasoning [65.72847298578071]
大規模言語モデル (LLMs) は、文脈内推論の実行において広範な知識と強力な能力を持っている。
本稿では、複数の知識を組み合わせて新しい知識を推論する、文脈外知識推論(OCKR)という、文脈外推論の重要な側面に焦点を当てる。
論文 参考訳(メタデータ) (2024-06-11T15:58:59Z) - A Comprehensive Study of Knowledge Editing for Large Language Models [82.65729336401027]
大規模言語モデル(LLM)は、人間のコミュニケーションを忠実に反映したテキストの理解と生成の素晴らしい能力を示している。
本稿では,知識編集の問題を定義し,最先端アプローチの包括的レビューを行う。
我々は,代表的知識編集アプローチの総合的評価のための新しいベンチマークであるKnowEditを紹介した。
論文 参考訳(メタデータ) (2024-01-02T16:54:58Z) - UNTER: A Unified Knowledge Interface for Enhancing Pre-trained Language
Models [100.4659557650775]
構造化知識と非構造化知識の両方を活用する統一的な視点を提供するために、統一知識インターフェイスUNTERを提案する。
どちらの形態の知識も注入され、UNTERは一連の知識駆動NLPタスクの継続的な改善を得る。
論文 参考訳(メタデータ) (2023-05-02T17:33:28Z) - LM-CORE: Language Models with Contextually Relevant External Knowledge [13.451001884972033]
モデルパラメータに大量の知識を格納することは、絶え間なく増加する知識とリソースの要求を考えると、準最適である、と我々は主張する。
LM-CORE - これを実現するための一般的なフレームワークで、外部の知識ソースから言語モデルのトレーニングをテキストデカップリングすることができる。
実験結果から, LM-COREは知識探索タスクにおいて, 最先端の知識強化言語モデルよりも大きく, 堅牢な性能を実現していることがわかった。
論文 参考訳(メタデータ) (2022-08-12T18:59:37Z) - Knowledge-Grounded Dialogue Generation with a Unified Knowledge
Representation [78.85622982191522]
既存のシステムは、トレーニングデータでカバーされる限られたトピックのために、目に見えないトピックでうまく機能しない。
本稿では,異なる知識源を均質化した言語モデルであるPLUGについて述べる。
完全に教師された設定の下で最先端のメソッドと同等のパフォーマンスを達成することができる。
論文 参考訳(メタデータ) (2021-12-15T07:11:02Z) - Zero-Resource Knowledge-Grounded Dialogue Generation [29.357221039484568]
本稿では,文脈と応答をブリッジする知識と,その知識を潜在変数として表現する方法を提案する。
また,本モデルでは,知識基盤の対話に頼っている最先端の手法と同等の性能を達成できることを示す。
論文 参考訳(メタデータ) (2020-08-29T05:48:32Z) - Sequential Latent Knowledge Selection for Knowledge-Grounded Dialogue [51.513276162736844]
この問題に対する最初のアプローチとして,逐次潜在変数モデルを提案する。
シーケンシャル・ナレッジ・トランスフォーマー (SKT) という名前のモデルは、知識よりも先行と後続の分布を追跡することができる。
論文 参考訳(メタデータ) (2020-02-18T11:59:59Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。