論文の概要: Knowledge Graph Question Answering via SPARQL Silhouette Generation
- arxiv url: http://arxiv.org/abs/2109.09475v1
- Date: Mon, 6 Sep 2021 14:55:37 GMT
- ステータス: 処理完了
- システム内更新日: 2021-09-26 23:31:01.845126
- Title: Knowledge Graph Question Answering via SPARQL Silhouette Generation
- Title(参考訳): SPARQLシルエット生成による知識グラフ質問応答
- Authors: Sukannya Purkayastha, Saswati Dana, Dinesh Garg, Dinesh Khandelwal, G
P Shrivatsa Bhargav
- Abstract要約: 知識グラフ質問回答 (KGQA) は自然言語処理において顕著な領域となっている。
KGQA課題を解決するために,モジュール型2段階ニューラルアーキテクチャを提案する。
本手法はLC-QuAD-1データセットに対して3.72%のF1のマージンで最先端性を向上させることができることを示す。
- 参考スコア(独自算出の注目度): 18.391235417154498
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Knowledge Graph Question Answering (KGQA) has become a prominent area in
natural language processing due to the emergence of large-scale Knowledge
Graphs (KGs). Recently Neural Machine Translation based approaches are gaining
momentum that translates natural language queries to structured query languages
thereby solving the KGQA task. However, most of these methods struggle with
out-of-vocabulary words where test entities and relations are not seen during
training time. In this work, we propose a modular two-stage neural architecture
to solve the KGQA task.
The first stage generates a sketch of the target SPARQL called SPARQL
silhouette for the input question. This comprises of (1) Noise simulator to
facilitate out-of-vocabulary words and to reduce vocabulary size (2) seq2seq
model for text to SPARQL silhouette generation. The second stage is a Neural
Graph Search Module. SPARQL silhouette generated in the first stage is
distilled in the second stage by substituting precise relation in the predicted
structure. We simulate ideal and realistic scenarios by designing a noise
simulator. Experimental results show that the quality of generated SPARQL
silhouette in the first stage is outstanding for the ideal scenarios but for
realistic scenarios (i.e. noisy linker), the quality of the resulting SPARQL
silhouette drops drastically. However, our neural graph search module recovers
it considerably. We show that our method can achieve reasonable performance
improving the state-of-art by a margin of 3.72% F1 for the LC-QuAD-1 dataset.
We believe, our proposed approach is novel and will lead to dynamic KGQA
solutions that are suited for practical applications.
- Abstract(参考訳): 知識グラフ質問回答(KGQA)は,大規模知識グラフ(KG)の出現により,自然言語処理において顕著な領域となっている。
近年,自然言語クエリを構造化クエリ言語に翻訳することで,KGQAタスクを解くニューラル機械翻訳に基づくアプローチが勢いを増している。
しかし、これらの手法のほとんどは、訓練期間中にテストエンティティや関係が見られない語彙外単語に苦しむ。
本研究では,kgqa課題を解決するために,モジュール型2段階ニューラルアーキテクチャを提案する。
最初のステージでは、入力された質問に対してSPARQLシルエットと呼ばれるターゲットSPARQLのスケッチを生成する。
1) 語彙外単語を容易にするためのノイズシミュレータと、SPARQLシルエット生成へのテキスト用語彙サイズ(2)Seq2seqモデルからなる。
2番目のステージはNeural Graph Search Moduleである。
第1段階で発生するSPARQLシルエットは、予測された構造に正確な関係を置換することにより第2段階で蒸留される。
騒音シミュレータの設計により,理想的かつ現実的なシナリオをシミュレートする。
実験の結果, 生成したSPARQLシルエットの品質は理想的なシナリオには優れるが, 現実的なシナリオ(ノイズリンカー)には優れており, SPARQLシルエットの品質は劇的に低下することがわかった。
しかし,我々のニューラルグラフ探索モジュールではかなり回復する。
本手法はLC-QuAD-1データセットに対して3.72%のF1のマージンで最先端性を向上させることができることを示す。
提案手法は新規であり,実用化に適した動的KGQAソリューションの実現が期待できる。
関連論文リスト
- UniOQA: A Unified Framework for Knowledge Graph Question Answering with Large Language Models [4.627548680442906]
OwnThinkは、近年導入された中国の最も広範なオープンドメイン知識グラフである。
質問応答のための2つの並列アプローチを統合する統合フレームワークであるUniOQAを紹介する。
UniOQAは特にSpCQL Logical Accuracyを21.2%に、Execution Accuracyを54.9%に向上させ、このベンチマークで新たな最先端結果を達成した。
論文 参考訳(メタデータ) (2024-06-04T08:36:39Z) - A Copy Mechanism for Handling Knowledge Base Elements in SPARQL Neural
Machine Translation [2.9134135167113433]
本稿では,この問題に対処する手段として,ニューラルSPARQLクエリ生成のためのコピー機構を統合することを提案する。
本稿では,2つのSeq2Seqアーキテクチャ(CNNとTransformers)にコピー層と動的知識ベース語彙を追加することで提案する。
このレイヤは、モデルを生成せずに、質問から直接KB要素をコピーする。
我々は、未知のKB要素を参照するデータセットを含む最先端のデータセットに対するアプローチを評価し、コピー拡張アーキテクチャの精度を測定する。
論文 参考訳(メタデータ) (2022-11-18T14:56:35Z) - Hierarchical Phrase-based Sequence-to-Sequence Learning [94.10257313923478]
本稿では、学習中の帰納バイアスの源として階層的フレーズを取り入れ、推論中の明示的な制約として、標準的なシーケンス・ツー・シーケンス(seq2seq)モデルの柔軟性を維持するニューラルトランスデューサについて述べる。
本手法では,木が原文と対象句を階層的に整列するブラケット文法に基づく識別的導出法と,整列した句を1対1で翻訳するニューラルネットワークセク2セックモデルという2つのモデルを訓練する。
論文 参考訳(メタデータ) (2022-11-15T05:22:40Z) - AutoQGS: Auto-Prompt for Low-Resource Knowledge-based Question
Generation from SPARQL [18.019353543946913]
本研究では,知識に基づく質問生成(KBQG)の課題について検討する。
従来のKBQGは知識グラフのファクトトリプルから質問を生成するが、これはSPARQLの集約や比較のような複雑な操作を表現できない。
本研究では,SPARQLをNL記述に書き換えるために,大規模教師なしデータに基づいて訓練された自動プロンプタを提案する。
論文 参考訳(メタデータ) (2022-08-26T06:53:46Z) - E2S2: Encoding-Enhanced Sequence-to-Sequence Pretraining for Language
Understanding and Generation [95.49128988683191]
シークエンス・ツー・シークエンス(seq2seq)学習は、大規模事前学習言語モデルにおいて一般的な方法である。
本稿では,エンコーディング強化のseq2seq事前学習戦略,すなわちE2S2を提案する。
E2S2は、より効率的な自己教師付き情報をエンコーダに統合することで、Seq2seqモデルを改善する。
論文 参考訳(メタデータ) (2022-05-30T08:25:36Z) - DUAL: Textless Spoken Question Answering with Speech Discrete Unit
Adaptive Learning [66.71308154398176]
SQA (Spken Question Answering) は近年注目され, 目覚ましい進歩を遂げている。
既存のSQA手法は、収集に時間と費用がかかる自動音声認識(ASR)の転写に依存している。
本研究は,未ラベルのデータを事前学習に活用し,SQAダウンストリームタスクによって微調整される離散単位適応学習(DUAL)という,ASR transcript-free SQAフレームワークを提案する。
論文 参考訳(メタデータ) (2022-03-09T17:46:22Z) - Question Answering Infused Pre-training of General-Purpose
Contextualized Representations [70.62967781515127]
汎用的文脈表現学習のための質問応答(QA)に基づく事前学習目的を提案する。
我々は、より正確なクロスエンコーダモデルの予測と一致するように、個別にパスと質問をエンコードするバイエンコーダQAモデルをトレーニングすることで、この目標を達成する。
ゼロショット, 少数ショットのパラフレーズ検出において, RoBERTa-large と過去の最先端のどちらよりも大幅に改善した。
論文 参考訳(メタデータ) (2021-06-15T14:45:15Z) - Any-to-One Sequence-to-Sequence Voice Conversion using Self-Supervised
Discrete Speech Representations [49.55361944105796]
シーケンス・ツー・シーケンス・フレームワークにおいて,任意のA2O音声変換(VC)に対して新しいアプローチを提案する。
A2O VCは、トレーニング中に目に見えないものを含むあらゆる話者を、固定されたターゲットスピーカーに変換することを目指している。
論文 参考訳(メタデータ) (2020-10-23T08:34:52Z) - Retrieval-Augmented Generation for Knowledge-Intensive NLP Tasks [133.93803565077337]
検索強化生成モデルは、事前訓練されたパラメトリックメモリと非パラメトリックメモリを組み合わせて言語生成を行う。
我々は、RAGモデルが、最先端パラメトリックのみのセク2セックベースラインよりも、より具体的で、多様で、現実的な言語を生成することを示す。
論文 参考訳(メタデータ) (2020-05-22T21:34:34Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。