論文の概要: K-XLNet: A General Method for Combining Explicit Knowledge with Language
Model Pretraining
- arxiv url: http://arxiv.org/abs/2104.10649v2
- Date: Sat, 29 May 2021 10:08:32 GMT
- ステータス: 処理完了
- システム内更新日: 2023-04-06 21:17:09.438731
- Title: K-XLNet: A General Method for Combining Explicit Knowledge with Language
Model Pretraining
- Title(参考訳): K-XLNet: 明示的知識と言語モデル事前学習を組み合わせた汎用手法
- Authors: Ruiqing Yan, Lanchang Sun, Fang Wang, Xiaoming Zhang
- Abstract要約: 明示的な知識を活用することで、モデルの事前訓練を改善することに重点を置いています。
具体的には、まず知識グラフ(KG)から知識事実をマッチングし、次に直接変換器に知識命令層を追加する。
実験の結果,変圧器に外部知識を加えるだけで,多くのNLPタスクにおける学習性能が向上することが示された。
- 参考スコア(独自算出の注目度): 5.178964604577459
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Though pre-trained language models such as Bert and XLNet, have rapidly
advanced the state-of-the-art on many NLP tasks, they implicit semantics only
relying on surface information between words in corpus. Intuitively, background
knowledge influences the efficacy of understanding. Inspired by this common
sense, we focus on improving model pretraining by leveraging explicit
knowledge. Different from recent research that optimize pretraining model by
knowledge masking strategies, we propose a simple but general method to combine
explicit knowledge with pretraining. To be specific, we first match knowledge
facts from knowledge graph (KG) and then add a knowledge injunction layer to
transformer directly without changing its architecture. The present study seeks
to find the direct impact of explicit knowledge on transformer per-training. We
conduct experiments on various datasets for different downstream tasks. The
experimental results show that solely by adding external knowledge to
transformer can improve the learning performance on many NLP tasks.
- Abstract(参考訳): Bert や XLNet のような事前訓練された言語モデルは、多くの NLP タスクにおいて急速に最先端化してきたが、暗黙のセマンティクスはコーパス内の単語間の表面情報にのみ依存している。
直感的には、背景知識は理解の有効性に影響する。
この常識にインスパイアされた私たちは、明示的な知識を活用することによって、モデルの事前学習を改善することに重点を置いています。
知識マスキング戦略による事前学習モデルを最適化する最近の研究とは異なり、明示的な知識と事前学習を組み合わせるための単純だが一般的な手法を提案する。
具体的には、まず知識グラフ(KG)から知識事実をマッチングし、アーキテクチャを変更することなく直接トランスフォーマーに知識命令層を追加する。
本研究は, 変圧器に対する明示的知識の直接的影響を探究するものである。
下流の様々なタスクに対する様々なデータセットの実験を行う。
実験の結果,変圧器に外部知識を加えるだけで,多くのNLPタスクにおける学習性能が向上することが示された。
関連論文リスト
- Exploiting the Semantic Knowledge of Pre-trained Text-Encoders for Continual Learning [70.64617500380287]
継続的な学習は、モデルが学習した知識を維持しながら、新しいデータから学習することを可能にする。
画像のラベル情報で利用できるセマンティック知識は、以前に取得したセマンティッククラスの知識と関連する重要なセマンティック情報を提供する。
テキスト埋め込みを用いて意味的類似性を把握し,タスク内およびタスク間のセマンティックガイダンスの統合を提案する。
論文 参考訳(メタデータ) (2024-08-02T07:51:44Z) - TRELM: Towards Robust and Efficient Pre-training for Knowledge-Enhanced Language Models [31.209774088374374]
本稿では,知識強化言語モデルのためのロバストかつ効率的な事前学習フレームワークであるTRELMを紹介する。
我々は、知識を3倍に注入するための堅牢なアプローチと、価値ある情報を取得するための知識強化されたメモリバンクを採用しています。
我々は,TRELMが事前学習時間を少なくとも50%削減し,知識探索タスクや複数の知識認識言語理解タスクにおいて,他のKEPLMよりも優れていることを示す。
論文 参考訳(メタデータ) (2024-03-17T13:04:35Z) - Knowledge Rumination for Pre-trained Language Models [77.55888291165462]
本稿では,学習前の言語モデルが外部コーパスから検索することなく,関連する潜在知識を活用できるようにするための,Knowledge Ruminationと呼ばれる新しいパラダイムを提案する。
本稿では,RoBERTa,DeBERTa,GPT-3などの言語モデルに適用する。
論文 参考訳(メタデータ) (2023-05-15T15:47:09Z) - LM-CORE: Language Models with Contextually Relevant External Knowledge [13.451001884972033]
モデルパラメータに大量の知識を格納することは、絶え間なく増加する知識とリソースの要求を考えると、準最適である、と我々は主張する。
LM-CORE - これを実現するための一般的なフレームワークで、外部の知識ソースから言語モデルのトレーニングをテキストデカップリングすることができる。
実験結果から, LM-COREは知識探索タスクにおいて, 最先端の知識強化言語モデルよりも大きく, 堅牢な性能を実現していることがわかった。
論文 参考訳(メタデータ) (2022-08-12T18:59:37Z) - Ontology-enhanced Prompt-tuning for Few-shot Learning [41.51144427728086]
少ないショットラーニングは、限られたサンプル数に基づいて予測を行うことを目的としている。
知識グラフやオントロジーライブラリなどの構造化データは、様々なタスクにおける数ショット設定の恩恵を受けるために利用されてきた。
論文 参考訳(メタデータ) (2022-01-27T05:41:36Z) - Kformer: Knowledge Injection in Transformer Feed-Forward Layers [107.71576133833148]
そこで我々は,Transformerのフィードフォワード層を通じて外部知識を組み込んだ新しい知識融合モデルKformerを提案する。
FFNに単に知識を注入するだけで、事前学習された言語モデルの能力が向上し、現在の知識融合法が促進されることを実証的に見出した。
論文 参考訳(メタデータ) (2022-01-15T03:00:27Z) - Towards a Universal Continuous Knowledge Base [49.95342223987143]
複数のニューラルネットワークからインポートされた知識を格納できる継続的知識基盤を構築する方法を提案する。
テキスト分類実験は有望な結果を示す。
我々は複数のモデルから知識ベースに知識をインポートし、そこから融合した知識を単一のモデルにエクスポートする。
論文 参考訳(メタデータ) (2020-12-25T12:27:44Z) - CoLAKE: Contextualized Language and Knowledge Embedding [81.90416952762803]
文脈型言語と知識埋め込み(CoLAKE)を提案する。
CoLAKEは、言語と知識の両方の文脈化された表現を、拡張された目的によって共同で学習する。
知識駆動タスク、知識探索タスク、言語理解タスクについて実験を行う。
論文 参考訳(メタデータ) (2020-10-01T11:39:32Z) - Knowledge-Aware Language Model Pretraining [29.56904859722379]
トランスフォーマーアーキテクチャを変更することなく、言語モデルの事前学習に知識認識を取り入れる。
LAMA知識探索タスクにおける言語モデリング精度の向上,事実的正当性,エッジ探索による隠れ表現の意味性について検討した。
我々の知識認識言語モデル(KALM)は、GPT-2モデルの代替となる。
論文 参考訳(メタデータ) (2020-06-29T06:09:59Z) - Common Sense or World Knowledge? Investigating Adapter-Based Knowledge
Injection into Pretrained Transformers [54.417299589288184]
本研究では,概念ネットとそれに対応するオープンマインド・コモンセンス(OMCS)コーパスから,BERTの分布知識と概念知識を補完するモデルについて検討する。
我々のアダプタベースのモデルは,ConceptNet や OMCS に明示的に存在する概念的知識のタイプを必要とする推論タスクにおいて,BERT を大幅に上回っている。
論文 参考訳(メタデータ) (2020-05-24T15:49:57Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。