論文の概要: A Copy Mechanism for Handling Knowledge Base Elements in SPARQL Neural
Machine Translation
- arxiv url: http://arxiv.org/abs/2211.10271v1
- Date: Fri, 18 Nov 2022 14:56:35 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-21 14:08:16.833753
- Title: A Copy Mechanism for Handling Knowledge Base Elements in SPARQL Neural
Machine Translation
- Title(参考訳): SPARQLニューラルマシン翻訳における知識ベース要素処理のコピー機構
- Authors: Rose Hirigoyen, Amal Zouaq and Samuel Reyd
- Abstract要約: 本稿では,この問題に対処する手段として,ニューラルSPARQLクエリ生成のためのコピー機構を統合することを提案する。
本稿では,2つのSeq2Seqアーキテクチャ(CNNとTransformers)にコピー層と動的知識ベース語彙を追加することで提案する。
このレイヤは、モデルを生成せずに、質問から直接KB要素をコピーする。
我々は、未知のKB要素を参照するデータセットを含む最先端のデータセットに対するアプローチを評価し、コピー拡張アーキテクチャの精度を測定する。
- 参考スコア(独自算出の注目度): 2.9134135167113433
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Neural Machine Translation (NMT) models from English to SPARQL are a
promising development for SPARQL query generation. However, current
architectures are unable to integrate the knowledge base (KB) schema and handle
questions on knowledge resources, classes, and properties unseen during
training, rendering them unusable outside the scope of topics covered in the
training set. Inspired by the performance gains in natural language processing
tasks, we propose to integrate a copy mechanism for neural SPARQL query
generation as a way to tackle this issue. We illustrate our proposal by adding
a copy layer and a dynamic knowledge base vocabulary to two Seq2Seq
architectures (CNNs and Transformers). This layer makes the models copy KB
elements directly from the questions, instead of generating them. We evaluate
our approach on state-of-the-art datasets, including datasets referencing
unknown KB elements and measure the accuracy of the copy-augmented
architectures. Our results show a considerable increase in performance on all
datasets compared to non-copy architectures.
- Abstract(参考訳): 英語からSPARQLへのニューラルマシン翻訳(NMT)モデルは、SPARQLクエリ生成のための有望な開発である。
しかしながら、現在のアーキテクチャでは、知識ベース(KB)スキーマを統合することができず、トレーニング中に見つからない知識リソース、クラス、プロパティに関する質問を処理することができません。
自然言語処理タスクのパフォーマンス向上に触発されて、この問題に対処する手段として、ニューラルネットワークSPARQLクエリ生成のためのコピー機構を統合することを提案する。
2つのseq2seqアーキテクチャ(cnnsとtransformer)にコピー層と動的知識ベース語彙を追加することで,提案手法を提案する。
このレイヤは、モデルが生成するのではなく、質問から直接kb要素をコピーする。
我々は、未知KB要素を参照するデータセットを含む最先端データセットに対するアプローチを評価し、コピー拡張アーキテクチャの精度を測定する。
その結果,非コピーアーキテクチャと比較して,すべてのデータセットのパフォーマンスが大幅に向上した。
関連論文リスト
- Two are better than one: Context window extension with multi-grained self-injection [111.1376461868317]
SharedLLMは、多粒度コンテキスト圧縮とクエリ対応情報検索の設計哲学に基づく新しいアプローチである。
本研究では,テキストチャンクの多粒度コンテキスト情報を効率的にエンコードし,保存し,検索するための木構造データ構造を提案する。
論文 参考訳(メタデータ) (2024-10-25T06:08:59Z) - Less is More: Making Smaller Language Models Competent Subgraph Retrievers for Multi-hop KGQA [51.3033125256716]
本研究では,小言語モデルで処理される条件生成タスクとして,サブグラフ検索タスクをモデル化する。
2億2千万のパラメータからなる基本生成部分グラフ検索モデルでは,最先端モデルと比較して競合検索性能が向上した。
LLMリーダを接続した最大の3Bモデルは、WebQSPとCWQベンチマークの両方で、SOTAのエンドツーエンドパフォーマンスを新たに設定します。
論文 参考訳(メタデータ) (2024-10-08T15:22:36Z) - A Comprehensive Evaluation of Neural SPARQL Query Generation from
Natural Language Questions [2.5782420501870296]
近年、SPARQLクエリ生成のためのニューラルネットワーク翻訳(NMT)の分野が著しく成長している。
本稿では,最近のNMTに基づくSPARQL生成研究を再現し,拡張する様々な実験について述べる。
論文 参考訳(メタデータ) (2023-04-16T13:12:26Z) - Knowledge Graph Question Answering via SPARQL Silhouette Generation [18.391235417154498]
知識グラフ質問回答 (KGQA) は自然言語処理において顕著な領域となっている。
KGQA課題を解決するために,モジュール型2段階ニューラルアーキテクチャを提案する。
本手法はLC-QuAD-1データセットに対して3.72%のF1のマージンで最先端性を向上させることができることを示す。
論文 参考訳(メタデータ) (2021-09-06T14:55:37Z) - SPBERT: Pre-training BERT on SPARQL Queries for End-to-end Question
Answering over Knowledge Graphs [1.1775939485654976]
SPBERTは、大規模なSPARQLクエリログを事前トレーニングしたTransformerベースの言語モデルである。
本研究では,SPBERTとエンコーダデコーパスアーキテクチャを知識ベースQAコーパスに適用する方法について検討する。
論文 参考訳(メタデータ) (2021-06-18T08:39:26Z) - Exploring Sequence-to-Sequence Models for SPARQL Pattern Composition [0.5639451539396457]
構造化され、構造化されていないデータとして、インターネットに爆発的な情報が追加され、DBpediaやWikidataのような知識ベースが供給される。
質問回答システムの目的は、正規のクエリを書くことなく、自然言語でそのようなデータにアクセスできるようにすることである。
我々は、長い発話を複雑なSPARQLクエリに変換するための、シーケンス・ツー・シーケンス・モデルが実現可能で有望な選択肢であることを示す。
論文 参考訳(メタデータ) (2020-10-21T11:12:01Z) - Retrieval-Augmented Generation for Knowledge-Intensive NLP Tasks [133.93803565077337]
検索強化生成モデルは、事前訓練されたパラメトリックメモリと非パラメトリックメモリを組み合わせて言語生成を行う。
我々は、RAGモデルが、最先端パラメトリックのみのセク2セックベースラインよりも、より具体的で、多様で、現実的な言語を生成することを示す。
論文 参考訳(メタデータ) (2020-05-22T21:34:34Z) - Probing Linguistic Features of Sentence-Level Representations in Neural
Relation Extraction [80.38130122127882]
ニューラルリレーション抽出(RE)に関連する言語特性を対象とした14の探索タスクを導入する。
私たちは、40以上の異なるエンコーダアーキテクチャと2つのデータセットでトレーニングされた言語的特徴の組み合わせによって学習された表現を研究するためにそれらを使用します。
アーキテクチャによって引き起こされるバイアスと言語的特徴の含意は、探索タスクのパフォーマンスにおいて明らかに表現されている。
論文 参考訳(メタデータ) (2020-04-17T09:17:40Z) - Conversational Question Reformulation via Sequence-to-Sequence
Architectures and Pretrained Language Models [56.268862325167575]
本稿では、列列列構造と事前学習言語モデル(PLM)を用いた会話型質問修正(CQR)の実証的研究について述べる。
我々はPLMを利用して、CQRタスクの目的である最大推定におけるトークン・トークン・トークン・トークンの独立性の強い仮定に対処する。
我々は、最近導入されたCANARDデータセットの微調整PLMをドメイン内タスクとして評価し、TREC 2019 CAsT Trackのデータからドメイン外タスクとしてモデルを検証する。
論文 参考訳(メタデータ) (2020-04-04T11:07:54Z) - Hierarchical Conditional Relation Networks for Video Question Answering [62.1146543269993]
条件関係ネットワーク(CRN)と呼ばれる汎用再利用可能なニューラルネットワークユニットを導入する。
CRNは、ビデオ上での表現と推論のためのより洗練された構造を構築するためのビルディングブロックとして機能する。
その結果,ビデオQAのような複雑なドメインに対する汎用推論ユニットの構築の影響が示された。
論文 参考訳(メタデータ) (2020-02-25T07:00:48Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。