論文の概要: Reasoning Over Virtual Knowledge Bases With Open Predicate Relations
- arxiv url: http://arxiv.org/abs/2102.07043v1
- Date: Sun, 14 Feb 2021 01:29:54 GMT
- ステータス: 処理完了
- システム内更新日: 2021-02-16 16:16:22.348269
- Title: Reasoning Over Virtual Knowledge Bases With Open Predicate Relations
- Title(参考訳): オープンな述語関係を持つ仮想知識基盤の推論
- Authors: Haitian Sun, Pat Verga, Bhuwan Dhingra, Ruslan Salakhutdinov, William
W. Cohen
- Abstract要約: Open Predicate Query Language (OPQL) を紹介します。
OPQLは、テキストから完全にトレーニングされた仮想知識ベース(VKB)を構築する方法である。
OPQLは2つの異なるKB推論タスクにおいて、以前のVKBメソッドよりも優れていることを示す。
- 参考スコア(独自算出の注目度): 85.19305347984515
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We present the Open Predicate Query Language (OPQL); a method for
constructing a virtual KB (VKB) trained entirely from text. Large Knowledge
Bases (KBs) are indispensable for a wide-range of industry applications such as
question answering and recommendation. Typically, KBs encode world knowledge in
a structured, readily accessible form derived from laborious human annotation
efforts. Unfortunately, while they are extremely high precision, KBs are
inevitably highly incomplete and automated methods for enriching them are far
too inaccurate. Instead, OPQL constructs a VKB by encoding and indexing a set
of relation mentions in a way that naturally enables reasoning and can be
trained without any structured supervision. We demonstrate that OPQL
outperforms prior VKB methods on two different KB reasoning tasks and,
additionally, can be used as an external memory integrated into a language
model (OPQL-LM) leading to improvements on two open-domain question answering
tasks.
- Abstract(参考訳): テキストから完全に訓練された仮想KB(VKB)を構築する方法であるOpen Predicate Query Language(OPQL)を紹介します。
大規模な知識ベース(kbs)は,質問応答やレコメンデーションなど,幅広い産業アプリケーションにとって不可欠である。
典型的には、kbsは世界の知識を構造化され、容易にアクセス可能な形でエンコードする。
残念ながら、非常に精度が高いが、KBは必然的に不完全であり、それらを豊かにする自動化手法は不正確すぎる。
代わりにOPQLは、推論を自然に可能にし、構造化された監視なしにトレーニングできる方法で、一連の関係参照をエンコードしてインデックス化することで、VKBを構築する。
我々は、OPQLが2つの異なるKB推論タスクで以前のVKBメソッドよりも優れていることを実証し、さらに、言語モデル(OPQL-LM)に統合された外部メモリとして使用できる。
関連論文リスト
- A Learn-Then-Reason Model Towards Generalization in Knowledge Base Question Answering [17.281005999581865]
FreebaseやWikidataのような大規模知識ベース(KB)には、数百万の構造化知識がある。
Knowledge Base Question Answering (KBQA)は、自然言語の質問を通じて、これらの貴重なKBにアクセスするためのユーザフレンドリな方法を提供する。
本稿では,KBLLaMAを開発した。KBLLaMAは,新しいKB知識を言語モデルに注入し,フレキシブルなエンドツーエンドKBQAを実現するためのフレームワークである。
論文 参考訳(メタデータ) (2024-06-20T22:22:41Z) - ChatKBQA: A Generate-then-Retrieve Framework for Knowledge Base Question Answering with Fine-tuned Large Language Models [19.85526116658481]
本稿では,新規かつ簡易な生成検索KBQAフレームワークであるChatKBQAを紹介する。
実験の結果,ChatKBQAは標準KBQAデータセット上で新たな最先端性能を実現することがわかった。
この研究は、LLMと知識グラフを組み合わせるための新しいパラダイムとして、解釈可能および知識要求型質問応答のパラダイムと見なすこともできる。
論文 参考訳(メタデータ) (2023-10-13T09:45:14Z) - KnowledGPT: Enhancing Large Language Models with Retrieval and Storage
Access on Knowledge Bases [55.942342665806656]
KnowledGPTは、様々な知識ベースで大きな言語モデルをブリッジするための包括的なフレームワークである。
検索プロセスでは思考プロンプトプログラムを使用し,KBの検索言語をコード形式で生成する。
KnowledGPTは、個々のユーザ要求に合わせて、知識をパーソナライズされたKBに格納する機能を提供する。
論文 参考訳(メタデータ) (2023-08-17T13:07:00Z) - Mapping and Cleaning Open Commonsense Knowledge Bases with Generative
Translation [14.678465723838599]
特にオープン情報抽出(OpenIE)は、テキストから構造を誘導するためにしばしば用いられる。
OpenIEには、オープンエンドで非標準化された関係が含まれており、抽出された知識の下流での搾取を困難にしている。
本稿では,言語モデルを訓練し,オープンな言語から固定的なアサーションを生成することによって,生成的翻訳による問題にアプローチすることを提案する。
論文 参考訳(メタデータ) (2023-06-22T09:42:54Z) - Few-shot In-context Learning for Knowledge Base Question Answering [31.73274700847965]
本稿では,KB-BINDERを提案する。
4つの公開ヘテロジニアスKBQAデータセットの実験結果から,KB-BINDERはコンテクスト内デモを数回しか行わず,高い性能が得られることが示された。
論文 参考訳(メタデータ) (2023-05-02T19:31:55Z) - Cross-Lingual Question Answering over Knowledge Base as Reading
Comprehension [61.079852289005025]
知識ベース(xKBQA)に対する言語間質問応答は、提供された知識ベースとは異なる言語での質問に答えることを目的としている。
xKBQAが直面する大きな課題の1つは、データアノテーションのコストが高いことである。
読解パラダイムにおけるxKBQAの新しいアプローチを提案する。
論文 参考訳(メタデータ) (2023-02-26T05:52:52Z) - Uni-Parser: Unified Semantic Parser for Question Answering on Knowledge
Base and Database [86.03294330305097]
知識ベース(KB)とデータベース(DB)の両方で質問応答(QA)を統一した意味的要素を提案する。
フレームワークに不可欠な要素としてプリミティブ(KBのリレーションとエンティティ、テーブル名、列名、DBのセル値)を導入します。
生成元を利用して、異なる操作でトップランクプリミティブを変更・構成することで、最終的な論理形式を予測する。
論文 参考訳(メタデータ) (2022-11-09T19:33:27Z) - TIARA: Multi-grained Retrieval for Robust Question Answering over Large
Knowledge Bases [20.751369684593985]
TIARAは、PLMやオラクルエンティティアノテーションなどを含む以前のSOTAよりも、GrailQAおよびWebQuestionsSP上の少なくとも4.1と1.1のF1ポイントが優れている。
論文 参考訳(メタデータ) (2022-10-24T02:41:10Z) - DecAF: Joint Decoding of Answers and Logical Forms for Question
Answering over Knowledge Bases [81.19499764899359]
本稿では,論理形式と直解の両方を共同で生成する新しいフレームワークDecAFを提案する。
DecAFはWebQSP、FreebaseQA、GrailQAベンチマークで新しい最先端の精度を実現している。
論文 参考訳(メタデータ) (2022-09-30T19:51:52Z) - Beyond I.I.D.: Three Levels of Generalization for Question Answering on
Knowledge Bases [63.43418760818188]
GrailQA.comは64,331の質問で、新しい大規模で高品質なデータセットをリリースしました。
BERTベースのKBQAモデルを提案する。
データセットとモデルの組み合わせにより、KBQAの一般化におけるBERTのような事前学習されたコンテキスト埋め込みの重要な役割を、初めて徹底的に検証し、実証することが可能になります。
論文 参考訳(メタデータ) (2020-11-16T06:36:26Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。