論文の概要: Fusing Context Into Knowledge Graph for Commonsense Reasoning
- arxiv url: http://arxiv.org/abs/2012.04808v1
- Date: Wed, 9 Dec 2020 00:57:49 GMT
- ステータス: 処理完了
- システム内更新日: 2021-05-16 15:28:43.801535
- Title: Fusing Context Into Knowledge Graph for Commonsense Reasoning
- Title(参考訳): Commonsense Reasoningのための知識グラフへのコンテキスト注入
- Authors: Yichong Xu, Chenguang Zhu, Ruochen Xu, Yang Liu, Michael Zeng, Xuedong
Huang
- Abstract要約: 外部エンティティ記述を利用して,グラフエンティティのコンテキスト情報を提供する。
CommonsenseQAタスクでは、まず質問と選択から概念を抽出し、これらの概念の間に関連するトリプルを見つけます。
CommonsenseQAデータセットでは、80.7%(シングルモデル)と83.3%(アンサンブルモデル)の精度で最新の結果を達成しています。
- 参考スコア(独自算出の注目度): 21.33294077354958
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Commonsense reasoning requires a model to make presumptions about world
events via language understanding. Many methods couple pre-trained language
models with knowledge graphs in order to combine the merits in language
modeling and entity-based relational learning. However, although a knowledge
graph contains rich structural information, it lacks the context to provide a
more precise understanding of the concepts and relations. This creates a gap
when fusing knowledge graphs into language modeling, especially in the scenario
of insufficient paired text-knowledge data. In this paper, we propose to
utilize external entity description to provide contextual information for graph
entities. For the CommonsenseQA task, our model first extracts concepts from
the question and choice, and then finds a related triple between these
concepts. Next, it retrieves the descriptions of these concepts from Wiktionary
and feed them as additional input to a pre-trained language model, together
with the triple. The resulting model can attain much more effective commonsense
reasoning capability, achieving state-of-the-art results in the CommonsenseQA
dataset with an accuracy of 80.7% (single model) and 83.3% (ensemble model) on
the official leaderboard.
- Abstract(参考訳): コモンセンス推論は、言語理解を通じて世界出来事を推定するモデルを必要とする。
多くの手法は、言語モデリングとエンティティベースの関係学習の利点を組み合わせるために、事前訓練された言語モデルと知識グラフを結合する。
しかしながら、知識グラフには豊富な構造情報が含まれているが、概念と関係をより正確に理解するためのコンテキストが欠けている。
これは、知識グラフを言語モデリングに融合する際に、特にペアのテキスト知識データが不足するシナリオにおいてギャップを生じる。
本稿では,外部エンティティ記述を利用して,グラフエンティティのコンテキスト情報を提供する。
commonsenseqaタスクでは、まず質問と選択から概念を抽出し、その後、これらの概念の間に関連する三重項を見つけます。
次に、これらの概念の記述をWiktionaryから取り出し、プリトレーニング済みの言語モデルに追加のインプットとして、トリプルとともにフィードする。
結果として得られたモデルは、より効果的なコモンセンス推論能力を達成でき、公式のリーダーボード上で80.7%(シングルモデル)と83.3%(センスモデル)の精度でcommonsenseqaデータセットで最先端の結果が得られる。
関連論文リスト
- Compositional Generalization with Grounded Language Models [9.96679221246835]
基底言語モデルは、知識グラフのような外部情報ソースを使用して、事前学習に関連する一般的な課題を満たす。
本研究では,構成性の異なる側面を対象とする知識グラフと組み合わせた自然言語質問を生成する手法を開発した。
論文 参考訳(メタデータ) (2024-06-07T14:56:51Z) - Context versus Prior Knowledge in Language Models [49.17879668110546]
言語モデルは、事前学習中に学んだ事前知識と、文脈で提示された新しい情報を統合する必要があることが多い。
本稿では,モデルがコンテキストと先行するエンティティへの依存性を測定するための2つの相互情報ベースメトリクスを提案する。
論文 参考訳(メタデータ) (2024-04-06T13:46:53Z) - KGLM: Integrating Knowledge Graph Structure in Language Models for Link
Prediction [0.0]
我々は、異なるエンティティと関係型を区別することを学ぶ新しいエンティティ/リレーション埋め込み層を導入する。
知識グラフから抽出したトリプルを用いて、この追加埋め込み層を用いて言語モデルをさらに事前学習し、続いて標準微調整フェーズにより、ベンチマークデータセット上のリンク予測タスクに対して、新しい最先端のパフォーマンスが設定されることを示す。
論文 参考訳(メタデータ) (2022-11-04T20:38:12Z) - Joint Language Semantic and Structure Embedding for Knowledge Graph
Completion [66.15933600765835]
本稿では,知識三重項の自然言語記述と構造情報とを共同で組み込むことを提案する。
本手法は,学習済み言語モデルを微調整することで,完了作業のための知識グラフを埋め込む。
各種知識グラフベンチマーク実験により,本手法の最先端性能を実証した。
論文 参考訳(メタデータ) (2022-09-19T02:41:02Z) - An Empirical Investigation of Commonsense Self-Supervision with
Knowledge Graphs [67.23285413610243]
大規模知識グラフから抽出した情報に基づく自己監督は、言語モデルの一般化を改善することが示されている。
本研究では,言語モデルに適用可能な合成データを生成するための知識サンプリング戦略とサイズの影響について検討する。
論文 参考訳(メタデータ) (2022-05-21T19:49:04Z) - GreaseLM: Graph REASoning Enhanced Language Models for Question
Answering [159.9645181522436]
GreaseLMは、事前訓練されたLMとグラフニューラルネットワークの符号化された表現を、複数の層にわたるモダリティ相互作用操作で融合する新しいモデルである。
GreaseLMは、状況制約と構造化知識の両方の推論を必要とする問題に、より確実に答えることができる。
論文 参考訳(メタデータ) (2022-01-21T19:00:05Z) - Zero-shot Commonsense Question Answering with Cloze Translation and
Consistency Optimization [20.14487209460865]
自然質問をクローズスタイルの文に翻訳できる4つの翻訳手法について検討する。
提案手法は知識ベース改良モデルと相補的なデータセットであり,それらを組み合わせることで,最先端のゼロショット性能を実現することができることを示す。
論文 参考訳(メタデータ) (2022-01-01T07:12:49Z) - JAKET: Joint Pre-training of Knowledge Graph and Language Understanding [73.43768772121985]
本稿では,知識グラフと言語の両方をモデル化する新しい事前学習フレームワークであるJAKETを提案する。
知識モジュールと言語モジュールは相互に支援するための重要な情報を提供する。
我々の設計により、事前学習されたモデルは、新しいドメインの見知らぬ知識グラフに容易に適応できる。
論文 参考訳(メタデータ) (2020-10-02T05:53:36Z) - Exploiting Structured Knowledge in Text via Graph-Guided Representation
Learning [73.0598186896953]
本稿では、知識グラフからのガイダンスを用いて、生テキスト上で学習する2つの自己教師型タスクを提案する。
エンティティレベルのマスキング言語モデルに基づいて、最初のコントリビューションはエンティティマスキングスキームです。
既存のパラダイムとは対照的に,本手法では事前学習時にのみ,知識グラフを暗黙的に使用する。
論文 参考訳(メタデータ) (2020-04-29T14:22:42Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。