論文の概要: A Copy Mechanism for Handling Knowledge Base Elements in SPARQL Neural
Machine Translation
- arxiv url: http://arxiv.org/abs/2211.10271v1
- Date: Fri, 18 Nov 2022 14:56:35 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-21 14:08:16.833753
- Title: A Copy Mechanism for Handling Knowledge Base Elements in SPARQL Neural
Machine Translation
- Title(参考訳): SPARQLニューラルマシン翻訳における知識ベース要素処理のコピー機構
- Authors: Rose Hirigoyen, Amal Zouaq and Samuel Reyd
- Abstract要約: 本稿では,この問題に対処する手段として,ニューラルSPARQLクエリ生成のためのコピー機構を統合することを提案する。
本稿では,2つのSeq2Seqアーキテクチャ(CNNとTransformers)にコピー層と動的知識ベース語彙を追加することで提案する。
このレイヤは、モデルを生成せずに、質問から直接KB要素をコピーする。
我々は、未知のKB要素を参照するデータセットを含む最先端のデータセットに対するアプローチを評価し、コピー拡張アーキテクチャの精度を測定する。
- 参考スコア(独自算出の注目度): 2.9134135167113433
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Neural Machine Translation (NMT) models from English to SPARQL are a
promising development for SPARQL query generation. However, current
architectures are unable to integrate the knowledge base (KB) schema and handle
questions on knowledge resources, classes, and properties unseen during
training, rendering them unusable outside the scope of topics covered in the
training set. Inspired by the performance gains in natural language processing
tasks, we propose to integrate a copy mechanism for neural SPARQL query
generation as a way to tackle this issue. We illustrate our proposal by adding
a copy layer and a dynamic knowledge base vocabulary to two Seq2Seq
architectures (CNNs and Transformers). This layer makes the models copy KB
elements directly from the questions, instead of generating them. We evaluate
our approach on state-of-the-art datasets, including datasets referencing
unknown KB elements and measure the accuracy of the copy-augmented
architectures. Our results show a considerable increase in performance on all
datasets compared to non-copy architectures.
- Abstract(参考訳): 英語からSPARQLへのニューラルマシン翻訳(NMT)モデルは、SPARQLクエリ生成のための有望な開発である。
しかしながら、現在のアーキテクチャでは、知識ベース(KB)スキーマを統合することができず、トレーニング中に見つからない知識リソース、クラス、プロパティに関する質問を処理することができません。
自然言語処理タスクのパフォーマンス向上に触発されて、この問題に対処する手段として、ニューラルネットワークSPARQLクエリ生成のためのコピー機構を統合することを提案する。
2つのseq2seqアーキテクチャ(cnnsとtransformer)にコピー層と動的知識ベース語彙を追加することで,提案手法を提案する。
このレイヤは、モデルが生成するのではなく、質問から直接kb要素をコピーする。
我々は、未知KB要素を参照するデータセットを含む最先端データセットに対するアプローチを評価し、コピー拡張アーキテクチャの精度を測定する。
その結果,非コピーアーキテクチャと比較して,すべてのデータセットのパフォーマンスが大幅に向上した。
関連論文リスト
- Exploiting Contextual Target Attributes for Target Sentiment
Classification [53.30511968323911]
TSCの既存のPTLMベースモデルは、1)PTLMをコンテキストエンコーダとして採用した微調整ベースモデル、2)テキスト/単語生成タスクに分類タスクを転送するプロンプトベースモデル、の2つのグループに分類される。
我々は,PTLM を TSC に活用する新たな視点として,言語モデリングと文脈的ターゲット属性による明示的ターゲットコンテキスト相互作用の利点を同時に活用する。
論文 参考訳(メタデータ) (2023-12-21T11:45:28Z) - DIVKNOWQA: Assessing the Reasoning Ability of LLMs via Open-Domain
Question Answering over Knowledge Base and Text [73.68051228972024]
大きな言語モデル(LLM)は印象的な生成能力を示すが、内部知識に依存すると幻覚に悩まされる。
検索拡張LDMは、外部知識においてLLMを基盤とする潜在的な解決策として出現している。
論文 参考訳(メタデータ) (2023-10-31T04:37:57Z) - A Comprehensive Evaluation of Neural SPARQL Query Generation from
Natural Language Questions [2.5782420501870296]
近年、SPARQLクエリ生成のためのニューラルネットワーク翻訳(NMT)の分野が著しく成長している。
本稿では,最近のNMTに基づくSPARQL生成研究を再現し,拡張する様々な実験について述べる。
論文 参考訳(メタデータ) (2023-04-16T13:12:26Z) - Knowledge Graph Question Answering via SPARQL Silhouette Generation [18.391235417154498]
知識グラフ質問回答 (KGQA) は自然言語処理において顕著な領域となっている。
KGQA課題を解決するために,モジュール型2段階ニューラルアーキテクチャを提案する。
本手法はLC-QuAD-1データセットに対して3.72%のF1のマージンで最先端性を向上させることができることを示す。
論文 参考訳(メタデータ) (2021-09-06T14:55:37Z) - SPBERT: Pre-training BERT on SPARQL Queries for End-to-end Question
Answering over Knowledge Graphs [1.1775939485654976]
SPBERTは、大規模なSPARQLクエリログを事前トレーニングしたTransformerベースの言語モデルである。
本研究では,SPBERTとエンコーダデコーパスアーキテクチャを知識ベースQAコーパスに適用する方法について検討する。
論文 参考訳(メタデータ) (2021-06-18T08:39:26Z) - Exploring Sequence-to-Sequence Models for SPARQL Pattern Composition [0.5639451539396457]
構造化され、構造化されていないデータとして、インターネットに爆発的な情報が追加され、DBpediaやWikidataのような知識ベースが供給される。
質問回答システムの目的は、正規のクエリを書くことなく、自然言語でそのようなデータにアクセスできるようにすることである。
我々は、長い発話を複雑なSPARQLクエリに変換するための、シーケンス・ツー・シーケンス・モデルが実現可能で有望な選択肢であることを示す。
論文 参考訳(メタデータ) (2020-10-21T11:12:01Z) - Retrieval-Augmented Generation for Knowledge-Intensive NLP Tasks [133.93803565077337]
検索強化生成モデルは、事前訓練されたパラメトリックメモリと非パラメトリックメモリを組み合わせて言語生成を行う。
我々は、RAGモデルが、最先端パラメトリックのみのセク2セックベースラインよりも、より具体的で、多様で、現実的な言語を生成することを示す。
論文 参考訳(メタデータ) (2020-05-22T21:34:34Z) - Probing Linguistic Features of Sentence-Level Representations in Neural
Relation Extraction [80.38130122127882]
ニューラルリレーション抽出(RE)に関連する言語特性を対象とした14の探索タスクを導入する。
私たちは、40以上の異なるエンコーダアーキテクチャと2つのデータセットでトレーニングされた言語的特徴の組み合わせによって学習された表現を研究するためにそれらを使用します。
アーキテクチャによって引き起こされるバイアスと言語的特徴の含意は、探索タスクのパフォーマンスにおいて明らかに表現されている。
論文 参考訳(メタデータ) (2020-04-17T09:17:40Z) - Conversational Question Reformulation via Sequence-to-Sequence
Architectures and Pretrained Language Models [56.268862325167575]
本稿では、列列列構造と事前学習言語モデル(PLM)を用いた会話型質問修正(CQR)の実証的研究について述べる。
我々はPLMを利用して、CQRタスクの目的である最大推定におけるトークン・トークン・トークン・トークンの独立性の強い仮定に対処する。
我々は、最近導入されたCANARDデータセットの微調整PLMをドメイン内タスクとして評価し、TREC 2019 CAsT Trackのデータからドメイン外タスクとしてモデルを検証する。
論文 参考訳(メタデータ) (2020-04-04T11:07:54Z) - Hierarchical Conditional Relation Networks for Video Question Answering [62.1146543269993]
条件関係ネットワーク(CRN)と呼ばれる汎用再利用可能なニューラルネットワークユニットを導入する。
CRNは、ビデオ上での表現と推論のためのより洗練された構造を構築するためのビルディングブロックとして機能する。
その結果,ビデオQAのような複雑なドメインに対する汎用推論ユニットの構築の影響が示された。
論文 参考訳(メタデータ) (2020-02-25T07:00:48Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。