論文の概要: SPBERT: Pre-training BERT on SPARQL Queries for End-to-end Question
Answering over Knowledge Graphs
- arxiv url: http://arxiv.org/abs/2106.09997v1
- Date: Fri, 18 Jun 2021 08:39:26 GMT
- ステータス: 処理完了
- システム内更新日: 2021-06-21 14:09:16.002643
- Title: SPBERT: Pre-training BERT on SPARQL Queries for End-to-end Question
Answering over Knowledge Graphs
- Title(参考訳): SPBERT:知識グラフに対するエンドツーエンド質問応答のためのSPARQLクエリ上でのBERTの事前トレーニング
- Authors: Hieu Tran, Long Phan, and Truong-Son Nguyen
- Abstract要約: SPBERTは、大規模なSPARQLクエリログを事前トレーニングしたTransformerベースの言語モデルである。
本研究では,SPBERTとエンコーダデコーパスアーキテクチャを知識ベースQAコーパスに適用する方法について検討する。
- 参考スコア(独自算出の注目度): 1.1775939485654976
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We aim to create an unprecedented attempt to build an end-to-end Question
Answering (QA) over Knowledge Graphs (KGs), which can construct SPARQL queries
from natural language questions and generate a verbalized answer to its
queries. Hence, we introduce SPBERT, a Transformer-based language model
pre-trained on massive SPARQL query logs. By incorporating masked language
modelling objective and word structural objective, SPBERT can learn
general-purpose representations in both natural language and SPARQL query
language and make the most of the sequential order of words that are crucial
for structured language like SPARQL. In this paper, we investigate how SPBERT
and encoder-decoder architecture can be adapted for Knowledge-based QA corpora.
We conduct exhaustive experiments on two auxiliary tasks, including SPARQL
Query Construction and Answer Verbalization Generation. Results show that
SPBERT obtains promising performance and achieves state-of-the-art results on
several of these tasks.
- Abstract(参考訳): 我々は,自然言語質問からsparqlクエリを構築できる知識グラフ(kgs)上でのエンドツーエンド質問応答(qa)の構築と,そのクエリに対する言語的回答の生成という,前例のない試みを目指しています。
そこで我々は,大規模なSPARQLクエリログを事前トレーニングしたTransformerベースの言語モデルであるSPBERTを紹介する。
マスク付き言語モデリングの目的と単語構造的目的を取り入れることで、SPBERTは自然言語とSPARQLクエリ言語の両方で汎用表現を学習し、SPARQLのような構造化言語に不可欠な単語の逐次順序を最大限に活用することができる。
本稿では,SPBERTとエンコーダデコーダアーキテクチャを知識ベースQAコーパスに適用する方法について検討する。
SPARQL Query Construction と Answer Verbalization Generation の2つの補助タスクについて,徹底的な実験を行った。
その結果、SPBERTは有望な性能を示し、これらのタスクのいくつかについて最先端の結果を得ることができた。
関連論文リスト
- Effective Instruction Parsing Plugin for Complex Logical Query Answering on Knowledge Graphs [51.33342412699939]
知識グラフクエリ埋め込み(KGQE)は、不完全なKGに対する複雑な推論のために、低次元KG空間に一階論理(FOL)クエリを埋め込むことを目的としている。
近年の研究では、FOLクエリの論理的セマンティクスをよりよく捉えるために、さまざまな外部情報(エンティティタイプや関係コンテキストなど)を統合している。
コードのようなクエリ命令から遅延クエリパターンをキャプチャする効果的なクエリ命令解析(QIPP)を提案する。
論文 参考訳(メタデータ) (2024-10-27T03:18:52Z) - Assessing SPARQL capabilities of Large Language Models [0.0]
我々は、SPARQLで動作するLarge Language Modelsのアウトオブザボックス機能の測定に重点を置いています。
LLM-KG-Benchフレームワークにベンチマークタスクを実装し,自動実行と評価を行う。
この結果から,SPARQL SELECTクエリの処理はLLMでは依然として困難であることが示唆された。
論文 参考訳(メタデータ) (2024-09-09T08:29:39Z) - UQE: A Query Engine for Unstructured Databases [71.49289088592842]
構造化されていないデータ分析を可能にするために,大規模言語モデルの可能性を検討する。
本稿では,非構造化データ収集からの洞察を直接問合せ,抽出するUniversal Query Engine (UQE)を提案する。
論文 参考訳(メタデータ) (2024-06-23T06:58:55Z) - Leveraging LLMs in Scholarly Knowledge Graph Question Answering [7.951847862547378]
KGQAは大きな言語モデル(LLM)を活用することで自然言語の質問に答える
SciQAのF1スコアは,Scholarly Knowledge Graph Question Answering Challengeベンチマークの1つである99.0%である。
論文 参考訳(メタデータ) (2023-11-16T12:13:49Z) - In-Context Learning for Knowledge Base Question Answering for Unmanned
Systems based on Large Language Models [43.642717344626355]
我々は,無人システムにおける知識グラフ推論を用いた質問回答コンペティション(CCKS2023)に注目した。
多くのQAタスクにおいてChatGPTやGPT-3のような大規模言語モデル(LLM)が最近成功したことに触発されて、ChatGPTベースのCypher Query Language(CQL)生成フレームワークを提案する。
当社のChatGPTベースのCQL生成フレームワークは、Unmanned Systemsコンペティションのための知識グラフ推論によるCCKS 2023質問回答において、第2位を獲得しました。
論文 参考訳(メタデータ) (2023-11-06T08:52:11Z) - An In-Context Schema Understanding Method for Knowledge Base Question
Answering [70.87993081445127]
大きな言語モデル(LLM)は、言語理解において強力な能力を示しており、この課題を解決するために使用することができる。
既存のメソッドは、当初、スキーマ固有の詳細を使わずにLLMを使用してロジックフォームのドラフトを生成することで、この課題を回避している。
そこで本研究では,LLMが文脈内学習を利用してスキーマを直接理解できる簡易なインコンテキスト理解(ICSU)手法を提案する。
論文 参考訳(メタデータ) (2023-10-22T04:19:17Z) - Semantic Parsing for Conversational Question Answering over Knowledge
Graphs [63.939700311269156]
本研究では,ユーザの質問にSparqlパースとアノテートし,システム回答が実行結果に対応するデータセットを開発する。
本稿では,2つの意味解析手法を提案し,その課題を強調した。
私たちのデータセットとモデルはhttps://github.com/Edinburgh/SPICE.orgで公開されています。
論文 参考訳(メタデータ) (2023-01-28T14:45:11Z) - Improving Text-to-SQL Semantic Parsing with Fine-grained Query
Understanding [84.04706075621013]
トークンレベルのきめ細かいクエリ理解に基づく汎用的モジュール型ニューラルネットワーク解析フレームワークを提案する。
我々のフレームワークは、名前付きエンティティ認識(NER)、ニューラルエンティティリンカ(NEL)、ニューラルエンティティリンカ(NSP)の3つのモジュールから構成されている。
論文 参考訳(メタデータ) (2022-09-28T21:00:30Z) - Reducing the impact of out of vocabulary words in the translation of
natural language questions into SPARQL queries [5.97507595130844]
SPARQLにおける自然言語による質問の自動翻訳は、この問題を克服する可能性を秘めている。
ニューラルマシン翻訳に基づく既存のシステムは、トレーニングセットのアウト・オブ・ザ・ボキャブラリ(OOV)である単語を認識するのに非常に効果的であるが、容易に失敗する。
論文 参考訳(メタデータ) (2021-11-04T16:53:59Z) - Exploring Sequence-to-Sequence Models for SPARQL Pattern Composition [0.5639451539396457]
構造化され、構造化されていないデータとして、インターネットに爆発的な情報が追加され、DBpediaやWikidataのような知識ベースが供給される。
質問回答システムの目的は、正規のクエリを書くことなく、自然言語でそのようなデータにアクセスできるようにすることである。
我々は、長い発話を複雑なSPARQLクエリに変換するための、シーケンス・ツー・シーケンス・モデルが実現可能で有望な選択肢であることを示す。
論文 参考訳(メタデータ) (2020-10-21T11:12:01Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。