論文の概要: Reducing the impact of out of vocabulary words in the translation of
natural language questions into SPARQL queries
- arxiv url: http://arxiv.org/abs/2111.03000v1
- Date: Thu, 4 Nov 2021 16:53:59 GMT
- ステータス: 処理完了
- システム内更新日: 2021-11-05 13:17:10.995340
- Title: Reducing the impact of out of vocabulary words in the translation of
natural language questions into SPARQL queries
- Title(参考訳): 自然言語質問のSPARQLクエリへの変換における語彙単語のアウトの影響の低減
- Authors: Manuel A. Borroto Santana, Francesco Ricca, Bernardo Cuteri
- Abstract要約: SPARQLにおける自然言語による質問の自動翻訳は、この問題を克服する可能性を秘めている。
ニューラルマシン翻訳に基づく既存のシステムは、トレーニングセットのアウト・オブ・ザ・ボキャブラリ(OOV)である単語を認識するのに非常に効果的であるが、容易に失敗する。
- 参考スコア(独自算出の注目度): 5.97507595130844
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Accessing the large volumes of information available in public knowledge
bases might be complicated for those users unfamiliar with the SPARQL query
language. Automatic translation of questions posed in natural language in
SPARQL has the potential of overcoming this problem. Existing systems based on
neural-machine translation are very effective but easily fail in recognizing
words that are Out Of the Vocabulary (OOV) of the training set. This is a
serious issue while querying large ontologies. In this paper, we combine Named
Entity Linking, Named Entity Recognition, and Neural Machine Translation to
perform automatic translation of natural language questions into SPARQL
queries. We demonstrate empirically that our approach is more effective and
resilient to OOV words than existing approaches by running the experiments on
Monument, QALD-9, and LC-QuAD v1, which are well-known datasets for Question
Answering over DBpedia.
- Abstract(参考訳): 公開知識ベースで利用可能な大量の情報にアクセスするのは、SPARQLクエリ言語に精通していないユーザにとって、複雑になるかも知れません。
SPARQLにおける自然言語による質問の自動翻訳は、この問題を克服する可能性がある。
既存のニューラルネットワーク翻訳システムは、トレーニングセットの語彙(oov)外にある単語を認識するのに非常に効果的だが、容易に失敗する。
これは大きなオントロジーをクエリしながら深刻な問題です。
本稿では、自然言語質問からSPARQLクエリへの自動翻訳を行うために、名前付きエンティティリンク、名前付きエンティティ認識、ニューラルネットワーク翻訳を組み合わせる。
提案手法は,DBpedia上の質問回答データセットであるMonument,QALD-9,LC-QuAD v1で実験を行うことにより,既存のアプローチよりもOOV語の方が効果的でレジリエントであることを示す。
関連論文リスト
- MST5 -- Multilingual Question Answering over Knowledge Graphs [1.6470999044938401]
知識グラフ質問回答(KGQA)は、自然言語を用いたグラフベースモデルに格納された膨大な知識のクエリを単純化する。
既存の多言語KGQAシステムは、英語システムに匹敵する性能を達成するための課題に直面している。
本稿では,言語コンテキストとエンティティ情報を言語モデルの処理パイプラインに直接組み込むことで,多言語KGQAシステムを強化するための簡易なアプローチを提案する。
論文 参考訳(メタデータ) (2024-07-08T15:37:51Z) - DIVKNOWQA: Assessing the Reasoning Ability of LLMs via Open-Domain
Question Answering over Knowledge Base and Text [73.68051228972024]
大きな言語モデル(LLM)は印象的な生成能力を示すが、内部知識に依存すると幻覚に悩まされる。
検索拡張LDMは、外部知識においてLLMを基盤とする潜在的な解決策として出現している。
論文 参考訳(メタデータ) (2023-10-31T04:37:57Z) - An In-Context Schema Understanding Method for Knowledge Base Question
Answering [70.87993081445127]
大きな言語モデル(LLM)は、言語理解において強力な能力を示しており、この課題を解決するために使用することができる。
既存のメソッドは、当初、スキーマ固有の詳細を使わずにLLMを使用してロジックフォームのドラフトを生成することで、この課題を回避している。
そこで本研究では,LLMが文脈内学習を利用してスキーマを直接理解できる簡易なインコンテキスト理解(ICSU)手法を提案する。
論文 参考訳(メタデータ) (2023-10-22T04:19:17Z) - The Role of Output Vocabulary in T2T LMs for SPARQL Semantic Parsing [20.734859343886843]
我々は、SPARQLセマンティック解析のタスクにおいて、テキスト・トゥ・テキスト(T2T)モデルにおける出力語彙の役割を分析する。
クエリに対して慎重に選択された語彙置換を行い、GrailQAデータセットの17%の範囲で絶対的なゲインを求める。
論文 参考訳(メタデータ) (2023-05-24T12:55:04Z) - Allies: Prompting Large Language Model with Beam Search [107.38790111856761]
本研究では,ALIESと呼ばれる新しい手法を提案する。
入力クエリが与えられた場合、ALLIESはLLMを活用して、元のクエリに関連する新しいクエリを反復的に生成する。
元のクエリのスコープを反復的に精錬して拡張することにより、ALLIESは直接検索できない隠れた知識をキャプチャし、利用する。
論文 参考訳(メタデータ) (2023-05-24T06:16:44Z) - Cross-Lingual Question Answering over Knowledge Base as Reading
Comprehension [61.079852289005025]
知識ベース(xKBQA)に対する言語間質問応答は、提供された知識ベースとは異なる言語での質問に答えることを目的としている。
xKBQAが直面する大きな課題の1つは、データアノテーションのコストが高いことである。
読解パラダイムにおけるxKBQAの新しいアプローチを提案する。
論文 参考訳(メタデータ) (2023-02-26T05:52:52Z) - Semantic Parsing for Conversational Question Answering over Knowledge
Graphs [63.939700311269156]
本研究では,ユーザの質問にSparqlパースとアノテートし,システム回答が実行結果に対応するデータセットを開発する。
本稿では,2つの意味解析手法を提案し,その課題を強調した。
私たちのデータセットとモデルはhttps://github.com/Edinburgh/SPICE.orgで公開されています。
論文 参考訳(メタデータ) (2023-01-28T14:45:11Z) - AutoQGS: Auto-Prompt for Low-Resource Knowledge-based Question
Generation from SPARQL [18.019353543946913]
本研究では,知識に基づく質問生成(KBQG)の課題について検討する。
従来のKBQGは知識グラフのファクトトリプルから質問を生成するが、これはSPARQLの集約や比較のような複雑な操作を表現できない。
本研究では,SPARQLをNL記述に書き換えるために,大規模教師なしデータに基づいて訓練された自動プロンプタを提案する。
論文 参考訳(メタデータ) (2022-08-26T06:53:46Z) - QALD-9-plus: A Multilingual Dataset for Question Answering over DBpedia
and Wikidata Translated by Native Speakers [68.9964449363406]
私たちは8つの言語に高品質な質問の翻訳を導入することで、最も人気のあるKGQAベンチマークの1つ、QALD-9を拡張します。
アルメニア語、ウクライナ語、リトアニア語、バシキル語、ベラルーシ語という5つの言語は、これまでにKGQA研究コミュニティで最高の知識について検討されたことがなかった。
論文 参考訳(メタデータ) (2022-01-31T22:19:55Z) - SPARQLing Database Queries from Intermediate Question Decompositions [7.475027071883912]
自然言語の質問をデータベースクエリに変換するために、ほとんどのアプローチは、完全に注釈付けされたトレーニングセットに依存している。
データベースの中間問題表現を基盤として,この負担を軽減する。
我々のパイプラインは、自然言語質問を中間表現に変換するセマンティックと、訓練不能なトランスパイラをQLSPARクエリ言語に変換する2つの部分から構成される。
論文 参考訳(メタデータ) (2021-09-13T17:57:12Z) - SPBERT: Pre-training BERT on SPARQL Queries for End-to-end Question
Answering over Knowledge Graphs [1.1775939485654976]
SPBERTは、大規模なSPARQLクエリログを事前トレーニングしたTransformerベースの言語モデルである。
本研究では,SPBERTとエンコーダデコーパスアーキテクチャを知識ベースQAコーパスに適用する方法について検討する。
論文 参考訳(メタデータ) (2021-06-18T08:39:26Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。