論文の概要: Knowledge Rumination for Pre-trained Language Models
- arxiv url: http://arxiv.org/abs/2305.08732v3
- Date: Wed, 11 Oct 2023 10:51:12 GMT
- ステータス: 処理完了
- システム内更新日: 2023-10-13 12:44:31.522495
- Title: Knowledge Rumination for Pre-trained Language Models
- Title(参考訳): 事前学習型言語モデルの知識リミネーション
- Authors: Yunzhi Yao, Peng Wang, Shengyu Mao, Chuanqi Tan, Fei Huang, Huajun
Chen, Ningyu Zhang
- Abstract要約: 本稿では,学習前の言語モデルが外部コーパスから検索することなく,関連する潜在知識を活用できるようにするための,Knowledge Ruminationと呼ばれる新しいパラダイムを提案する。
本稿では,RoBERTa,DeBERTa,GPT-3などの言語モデルに適用する。
- 参考スコア(独自算出の注目度): 77.55888291165462
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Previous studies have revealed that vanilla pre-trained language models
(PLMs) lack the capacity to handle knowledge-intensive NLP tasks alone; thus,
several works have attempted to integrate external knowledge into PLMs.
However, despite the promising outcome, we empirically observe that PLMs may
have already encoded rich knowledge in their pre-trained parameters but fail to
fully utilize them when applying them to knowledge-intensive tasks. In this
paper, we propose a new paradigm dubbed Knowledge Rumination to help the
pre-trained language model utilize that related latent knowledge without
retrieving it from the external corpus. By simply adding a prompt like "As far
as I know" to the PLMs, we try to review related latent knowledge and inject
them back into the model for knowledge consolidation. We apply the proposed
knowledge rumination to various language models, including RoBERTa, DeBERTa,
and GPT-3. Experimental results on six commonsense reasoning tasks and GLUE
benchmarks demonstrate the effectiveness of our proposed approach, which proves
that the knowledge stored in PLMs can be better exploited to enhance
performance. Code is available in
https://github.com/zjunlp/knowledge-rumination.
- Abstract(参考訳): これまでの研究では、バニラ事前学習言語モデル(PLM)は知識集約型NLPタスクのみを扱う能力に欠けており、いくつかの研究が外部知識をPLMに統合しようと試みている。
しかし, 有望な結果にもかかわらず, PLMは事前学習したパラメータの豊富な知識をすでにコード化しており, 知識集約的なタスクに適用しても十分に活用できないことを実証的に観察する。
本稿では,学習済み言語モデルが外部コーパスから検索することなく関連する潜在知識を活用できるように,知識ラミネーションと呼ばれる新しいパラダイムを提案する。
PLMに"私の知る限り"のようなプロンプトを追加するだけで、私たちは関連する潜伏した知識をレビューして、それらを知識統合のモデルに注入しようとします。
本稿では,RoBERTa,DeBERTa,GPT-3などの言語モデルに適用する。
6つのコモンセンス推論タスクとglueベンチマークの実験結果は,提案手法の有効性を実証するものであり,plmに格納されている知識をより活用して性能を向上させることができることを示した。
コードはhttps://github.com/zjunlp/knowledge-ruminationで入手できる。
関連論文リスト
- Self-Knowledge Guided Retrieval Augmentation for Large Language Models [59.771098292611846]
大規模言語モデル(LLM)はタスク固有の微調整なしで優れた性能を示す。
検索に基づく手法は、非パラメトリックな世界知識を提供し、質問応答のようなタスクのパフォーマンスを向上させることができる。
SKR(Self-Knowledge guided Retrieval augmentation)は、LLMがこれまで遭遇した質問を参照できるようにする、シンプルで効果的な方法である。
論文 参考訳(メタデータ) (2023-10-08T04:22:33Z) - Thrust: Adaptively Propels Large Language Models with External Knowledge [58.72867916604562]
大規模事前学習言語モデル(PTLM)は、モデルパラメータの豊富な知識を符号化する。
PTLMの固有の知識は不透明または静的であり、外部の知識を必要とする。
本稿では,外部知識のインスタンスレベル適応推進(IAPEK)を提案する。
論文 参考訳(メタデータ) (2023-07-19T20:16:46Z) - UNTER: A Unified Knowledge Interface for Enhancing Pre-trained Language
Models [100.4659557650775]
構造化知識と非構造化知識の両方を活用する統一的な視点を提供するために、統一知識インターフェイスUNTERを提案する。
どちらの形態の知識も注入され、UNTERは一連の知識駆動NLPタスクの継続的な改善を得る。
論文 参考訳(メタデータ) (2023-05-02T17:33:28Z) - A Survey of Knowledge Enhanced Pre-trained Language Models [78.56931125512295]
我々は、知識強化事前学習言語モデル(KE-PLMs)の包括的なレビューを行う。
NLUでは、言語知識、テキスト知識、知識グラフ(KG)、ルール知識の4つのカテゴリに分類する。
NLGのKE-PLMは、KGベースと検索ベースに分類される。
論文 参考訳(メタデータ) (2022-11-11T04:29:02Z) - LM-CORE: Language Models with Contextually Relevant External Knowledge [13.451001884972033]
モデルパラメータに大量の知識を格納することは、絶え間なく増加する知識とリソースの要求を考えると、準最適である、と我々は主張する。
LM-CORE - これを実現するための一般的なフレームワークで、外部の知識ソースから言語モデルのトレーニングをテキストデカップリングすることができる。
実験結果から, LM-COREは知識探索タスクにおいて, 最先端の知識強化言語モデルよりも大きく, 堅牢な性能を実現していることがわかった。
論文 参考訳(メタデータ) (2022-08-12T18:59:37Z) - DictBERT: Dictionary Description Knowledge Enhanced Language Model
Pre-training via Contrastive Learning [18.838291575019504]
事前訓練された言語モデル(PLM)は、知識駆動タスクを扱う際に知識が不足していることが示されている。
辞書知識で PLM を強化する新しい手法である textbfDictBERT を提案する。
我々は、NER、関係抽出、CommonsenseQA、OpenBookQA、GLUEなど、さまざまな知識駆動型および言語理解タスクに対するアプローチを評価した。
論文 参考訳(メタデータ) (2022-08-01T06:43:19Z) - MLRIP: Pre-training a military language representation model with
informative factual knowledge and professional knowledge base [11.016827497014821]
現在の事前学習手順は、通常、知識マスキング、知識融合、知識置換を用いて、外部知識をモデルに注入する。
本研究では,ERNIE-Baidu が提案する知識マスキング戦略を改良した MLRIP を提案する。
包括的な分析による大規模な実験は、軍事知識駆動NLPタスクにおけるBERTモデルよりもMLRIPの方が優れていることを示している。
論文 参考訳(メタデータ) (2022-07-28T07:39:30Z) - Knowledgeable Salient Span Mask for Enhancing Language Models as
Knowledge Base [51.55027623439027]
我々は、モデルが構造化されていないテキストから、完全に自己教師された方法でより多くの知識を学習するのを助ける2つのソリューションを開発する。
最高の知識を得るために、私たちは、継続的事前学習における知識の完全な自己教師型学習を初めて探求します。
論文 参考訳(メタデータ) (2022-04-17T12:33:34Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。