論文の概要: DictBERT: Dictionary Description Knowledge Enhanced Language Model
Pre-training via Contrastive Learning
- arxiv url: http://arxiv.org/abs/2208.00635v1
- Date: Mon, 1 Aug 2022 06:43:19 GMT
- ステータス: 処理完了
- システム内更新日: 2022-08-02 13:37:23.675841
- Title: DictBERT: Dictionary Description Knowledge Enhanced Language Model
Pre-training via Contrastive Learning
- Title(参考訳): DictBERT:辞書記述知識 コントラスト学習による言語モデル事前学習
- Authors: Qianglong Chen, Feng-Lin Li, Guohai Xu, Ming Yan, Ji Zhang, Yin Zhang
- Abstract要約: 事前訓練された言語モデル(PLM)は、知識駆動タスクを扱う際に知識が不足していることが示されている。
辞書知識で PLM を強化する新しい手法である textbfDictBERT を提案する。
我々は、NER、関係抽出、CommonsenseQA、OpenBookQA、GLUEなど、さまざまな知識駆動型および言語理解タスクに対するアプローチを評価した。
- 参考スコア(独自算出の注目度): 18.838291575019504
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Although pre-trained language models (PLMs) have achieved state-of-the-art
performance on various natural language processing (NLP) tasks, they are shown
to be lacking in knowledge when dealing with knowledge driven tasks. Despite
the many efforts made for injecting knowledge into PLMs, this problem remains
open. To address the challenge, we propose \textbf{DictBERT}, a novel approach
that enhances PLMs with dictionary knowledge which is easier to acquire than
knowledge graph (KG). During pre-training, we present two novel pre-training
tasks to inject dictionary knowledge into PLMs via contrastive learning:
\textit{dictionary entry prediction} and \textit{entry description
discrimination}. In fine-tuning, we use the pre-trained DictBERT as a plugin
knowledge base (KB) to retrieve implicit knowledge for identified entries in an
input sequence, and infuse the retrieved knowledge into the input to enhance
its representation via a novel extra-hop attention mechanism. We evaluate our
approach on a variety of knowledge driven and language understanding tasks,
including NER, relation extraction, CommonsenseQA, OpenBookQA and GLUE.
Experimental results demonstrate that our model can significantly improve
typical PLMs: it gains a substantial improvement of 0.5\%, 2.9\%, 9.0\%, 7.1\%
and 3.3\% on BERT-large respectively, and is also effective on RoBERTa-large.
- Abstract(参考訳): プレトレーニング言語モデル(PLM)は、様々な自然言語処理(NLP)タスクにおいて最先端のパフォーマンスを達成したが、知識駆動タスクを扱う際には知識が不足していることが示されている。
PLMに知識を注入するための多くの努力にもかかわらず、この問題は未解決のままである。
この課題に対処するために,知識グラフ(KG)よりも取得が容易な辞書知識で PLM を強化する新しいアプローチである \textbf{DictBERT} を提案する。
事前学習中に,比較学習を通じて辞書知識をplmに注入する2つの新しい事前学習タスクを示す: \textit{dictionary entry prediction} と \textit{entry description discrimination} である。
微調整では、プレトレーニングされたDictBERTをプラグイン知識ベース(KB)として、入力シーケンス内の特定エントリに対する暗黙的な知識を検索し、検索した知識を入力に注入し、新しいエクストラホップアテンション機構を通じてその表現を強化する。
我々は、NER、関係抽出、CommonsenseQA、OpenBookQA、GLUEなど、さまざまな知識駆動型および言語理解タスクに対するアプローチを評価した。
実験結果から,本モデルではそれぞれ0.5 %,2.9 %,9.0 %,7.1 %,3.3 %の大幅な改善が可能であり,RoBERTa-largeにも有効であることがわかった。
関連論文リスト
- TRELM: Towards Robust and Efficient Pre-training for Knowledge-Enhanced Language Models [31.209774088374374]
本稿では,知識強化言語モデルのためのロバストかつ効率的な事前学習フレームワークであるTRELMを紹介する。
我々は、知識を3倍に注入するための堅牢なアプローチと、価値ある情報を取得するための知識強化されたメモリバンクを採用しています。
我々は,TRELMが事前学習時間を少なくとも50%削減し,知識探索タスクや複数の知識認識言語理解タスクにおいて,他のKEPLMよりも優れていることを示す。
論文 参考訳(メタデータ) (2024-03-17T13:04:35Z) - Knowledge Rumination for Pre-trained Language Models [77.55888291165462]
本稿では,学習前の言語モデルが外部コーパスから検索することなく,関連する潜在知識を活用できるようにするための,Knowledge Ruminationと呼ばれる新しいパラダイムを提案する。
本稿では,RoBERTa,DeBERTa,GPT-3などの言語モデルに適用する。
論文 参考訳(メタデータ) (2023-05-15T15:47:09Z) - UNTER: A Unified Knowledge Interface for Enhancing Pre-trained Language
Models [100.4659557650775]
構造化知識と非構造化知識の両方を活用する統一的な視点を提供するために、統一知識インターフェイスUNTERを提案する。
どちらの形態の知識も注入され、UNTERは一連の知識駆動NLPタスクの継続的な改善を得る。
論文 参考訳(メタデータ) (2023-05-02T17:33:28Z) - A Survey of Knowledge Enhanced Pre-trained Language Models [78.56931125512295]
我々は、知識強化事前学習言語モデル(KE-PLMs)の包括的なレビューを行う。
NLUでは、言語知識、テキスト知識、知識グラフ(KG)、ルール知識の4つのカテゴリに分類する。
NLGのKE-PLMは、KGベースと検索ベースに分類される。
論文 参考訳(メタデータ) (2022-11-11T04:29:02Z) - Knowledge Prompting in Pre-trained Language Model for Natural Language
Understanding [24.315130086787374]
知識プロンプトに基づく PLM フレームワーク KP-PLM を提案する。
このフレームワークは、既存の主流PLMと柔軟に組み合わせることができる。
これらのプロンプトから事実知識を更に活用するために,我々は2つの新しい知識認識型自己監督タスクを提案する。
論文 参考訳(メタデータ) (2022-10-16T13:36:57Z) - Knowledgeable Salient Span Mask for Enhancing Language Models as
Knowledge Base [51.55027623439027]
我々は、モデルが構造化されていないテキストから、完全に自己教師された方法でより多くの知識を学習するのを助ける2つのソリューションを開発する。
最高の知識を得るために、私たちは、継続的事前学習における知識の完全な自己教師型学習を初めて探求します。
論文 参考訳(メタデータ) (2022-04-17T12:33:34Z) - TegTok: Augmenting Text Generation via Task-specific and Open-world
Knowledge [83.55215993730326]
本稿では,タスク固有およびオープンワールド知識(TegTok)によるTExt生成の統一化を提案する。
本モデルでは,2種類の知識ソースからの知識エントリを高密度検索により選択し,それぞれ入力エンコーディングと出力デコーディングの段階に注入する。
論文 参考訳(メタデータ) (2022-03-16T10:37:59Z) - CoLAKE: Contextualized Language and Knowledge Embedding [81.90416952762803]
文脈型言語と知識埋め込み(CoLAKE)を提案する。
CoLAKEは、言語と知識の両方の文脈化された表現を、拡張された目的によって共同で学習する。
知識駆動タスク、知識探索タスク、言語理解タスクについて実験を行う。
論文 参考訳(メタデータ) (2020-10-01T11:39:32Z) - REALM: Retrieval-Augmented Language Model Pre-Training [37.3178586179607]
言語モデルの事前学習を潜伏知識検索システムで強化し,ウィキペディアのような大規模コーパスから文書を検索し,出席できるようにする。
本研究では,このような知識検索を教師なしで事前学習する方法を初めて示す。
オープンドメイン質問回答(Open-QA)の課題を微調整し,検索型言語モデル事前学習(REALM)の有効性を実証する。
論文 参考訳(メタデータ) (2020-02-10T18:40:59Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。