論文の概要: GenericsKB: A Knowledge Base of Generic Statements
- arxiv url: http://arxiv.org/abs/2005.00660v1
- Date: Sat, 2 May 2020 00:08:42 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-07 11:41:07.805407
- Title: GenericsKB: A Knowledge Base of Generic Statements
- Title(参考訳): GenericsKB: ジェネリックステートメントの知識ベース
- Authors: Sumithra Bhakthavatsalam, Chloe Anastasiades, Peter Clark
- Abstract要約: 我々はNLPコミュニティのための新しいリソース、すなわち*ジェネリックステートメントの大きな(3.5M+文)知識ベースを提示する*。
これは、抽出またはクラウドソースされた三つ組とは対照的に、*自然に発生する*ジェネリック文を含む最初の大きなリソースである。
すべてのジェネリックKB文は、その話題用語、周囲の文脈(文)、そして(学習された)信頼によって注釈付けされる。
- 参考スコア(独自算出の注目度): 18.68800894936855
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We present a new resource for the NLP community, namely a large (3.5M+
sentence) knowledge base of *generic statements*, e.g., "Trees remove carbon
dioxide from the atmosphere", collected from multiple corpora. This is the
first large resource to contain *naturally occurring* generic sentences, as
opposed to extracted or crowdsourced triples, and thus is rich in high-quality,
general, semantically complete statements. All GenericsKB sentences are
annotated with their topical term, surrounding context (sentences), and a
(learned) confidence. We also release GenericsKB-Best (1M+ sentences),
containing the best-quality generics in GenericsKB augmented with selected,
synthesized generics from WordNet and ConceptNet. In tests on two existing
datasets requiring multihop reasoning (OBQA and QASC), we find using GenericsKB
can result in higher scores and better explanations than using a much larger
corpus. This demonstrates that GenericsKB can be a useful resource for NLP
applications, as well as providing data for linguistic studies of generics and
their semantics. GenericsKB is available at
https://allenai.org/data/genericskb.
- Abstract(参考訳): 本稿では,複数のコーパスから収集した「木が大気から二酸化炭素を除去する」という,*ジェネリックステートメントの大規模(3.5m+文)知識ベースという,nlpコミュニティのための新たなリソースを提案する。
これは、抽出またはクラウドソースされたトリプルとは対照的に、*自然に発生する*ジェネリックな文を含む最初の大きなリソースであり、高品質、一般、意味的に完全なステートメントに富んでいる。
すべてのジェネリックskb文は、その話題用語、周囲の文脈(sentences)、および(learned)信頼度でアノテートされる。
また、GenericsKB-Best(1M以上の文)をリリースし、WordNetとConceptNetから選択された合成ジェネリクスを付加したGenericsKBの最高品質ジェネリクスを含む。
マルチホップ推論(OBQAとQASC)を必要とする既存の2つのデータセットのテストでは、GenericsKBを使用することで、はるかに大きなコーパスを使用するよりも高いスコアと説明が得られます。
これは、ジェネリクスKBがNLPアプリケーションに有用なリソースであり、ジェネリクスとその意味論の言語研究のためのデータを提供することを示す。
GenericsKBはhttps://allenai.org/data/genericskb.comで入手できる。
関連論文リスト
- BigText-QA: Question Answering over a Large-Scale Hybrid Knowledge Graph [23.739432128095107]
BigText-QAは構造化知識グラフに基づいて質問に答えることができる。
その結果,BigText-QAはニューラルネットワークベースのQAシステムであるDrQAよりも優れており,グラフベースの教師なしQAシステムであるQUESTと競合する結果が得られた。
論文 参考訳(メタデータ) (2022-12-12T09:49:02Z) - Uni-Parser: Unified Semantic Parser for Question Answering on Knowledge
Base and Database [86.03294330305097]
知識ベース(KB)とデータベース(DB)の両方で質問応答(QA)を統一した意味的要素を提案する。
フレームワークに不可欠な要素としてプリミティブ(KBのリレーションとエンティティ、テーブル名、列名、DBのセル値)を導入します。
生成元を利用して、異なる操作でトップランクプリミティブを変更・構成することで、最終的な論理形式を予測する。
論文 参考訳(メタデータ) (2022-11-09T19:33:27Z) - Penguins Don't Fly: Reasoning about Generics through Instantiations and
Exceptions [73.56753518339247]
本稿では, 言語理論から先例を生成するための新しい枠組みを提案する。
我々は650のジェネリックに対して19kの例を作成し、我々のフレームワークは12.8の精度で強力なGPT-3ベースラインを上回ります。
論文 参考訳(メタデータ) (2022-05-23T22:45:53Z) - Incorporating Constituent Syntax for Coreference Resolution [50.71868417008133]
本稿では,構成構文構造をグラフベースで組み込む手法を提案する。
また、高次近傍情報を利用して構成木に富んだ構造をエンコードすることも検討する。
on the English and Chinese parts of OntoNotes 5.0 benchmark shows that our proposed model beats a strong baseline or a new-of-the-art performance。
論文 参考訳(メタデータ) (2022-02-22T07:40:42Z) - Automatic Construction of Sememe Knowledge Bases via Dictionaries [53.8700954466358]
セメム知識ベース(SKB)は、セメムを自然言語処理に適用することを可能にする。
ほとんどの言語はSKBを持っておらず、手作業によるSKBの構築は時間と労力がかかる。
本稿では,既存の辞書を用いてSKBを構築するための簡易かつ完全自動手法を提案する。
論文 参考訳(メタデータ) (2021-05-26T14:41:01Z) - Quinductor: a multilingual data-driven method for generating
reading-comprehension questions using Universal Dependencies [0.0]
係り受け木を用いた読解質問を生成するための多言語データ駆動手法を提案する。
提案手法は,低リソース言語に対して,強力で決定論的かつ安価なベースラインを提供する。
論文 参考訳(メタデータ) (2021-03-18T09:49:56Z) - Reasoning Over Virtual Knowledge Bases With Open Predicate Relations [85.19305347984515]
Open Predicate Query Language (OPQL) を紹介します。
OPQLは、テキストから完全にトレーニングされた仮想知識ベース(VKB)を構築する方法である。
OPQLは2つの異なるKB推論タスクにおいて、以前のVKBメソッドよりも優れていることを示す。
論文 参考訳(メタデータ) (2021-02-14T01:29:54Z) - Beyond I.I.D.: Three Levels of Generalization for Question Answering on
Knowledge Bases [63.43418760818188]
GrailQA.comは64,331の質問で、新しい大規模で高品質なデータセットをリリースしました。
BERTベースのKBQAモデルを提案する。
データセットとモデルの組み合わせにより、KBQAの一般化におけるBERTのような事前学習されたコンテキスト埋め込みの重要な役割を、初めて徹底的に検証し、実証することが可能になります。
論文 参考訳(メタデータ) (2020-11-16T06:36:26Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。