論文の概要: The Role of Output Vocabulary in T2T LMs for SPARQL Semantic Parsing
- arxiv url: http://arxiv.org/abs/2305.15108v1
- Date: Wed, 24 May 2023 12:55:04 GMT
- ステータス: 処理完了
- システム内更新日: 2023-05-25 15:46:14.761880
- Title: The Role of Output Vocabulary in T2T LMs for SPARQL Semantic Parsing
- Title(参考訳): SPARQLセマンティックパーシングにおけるT2T LMにおける出力語彙の役割
- Authors: Debayan Banerjee, Pranav Ajit Nair, Ricardo Usbeck, Chris Biemann
- Abstract要約: 我々は、SPARQLセマンティック解析のタスクにおいて、テキスト・トゥ・テキスト(T2T)モデルにおける出力語彙の役割を分析する。
クエリに対して慎重に選択された語彙置換を行い、GrailQAデータセットの17%の範囲で絶対的なゲインを求める。
- 参考スコア(独自算出の注目度): 20.734859343886843
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: In this work, we analyse the role of output vocabulary for text-to-text (T2T)
models on the task of SPARQL semantic parsing. We perform experiments within
the the context of knowledge graph question answering (KGQA), where the task is
to convert questions in natural language to the SPARQL query language. We
observe that the query vocabulary is distinct from human vocabulary. Language
Models (LMs) are pre-dominantly trained for human language tasks, and hence, if
the query vocabulary is replaced with a vocabulary more attuned to the LM
tokenizer, the performance of models may improve. We carry out carefully
selected vocabulary substitutions on the queries and find absolute gains in the
range of 17% on the GrailQA dataset.
- Abstract(参考訳): 本研究では,テキスト・ツー・テキスト(t2t)モデルにおける出力語彙の役割を,sparql意味解析のタスクで分析する。
我々は、知識グラフ質問応答(kgqa)のコンテキスト内で実験を行い、タスクは自然言語の質問をsparqlクエリ言語に変換することである。
我々は,クエリ語彙が人間の語彙と異なることを観察する。
言語モデル(LM)は、人間の言語タスクのために事前訓練されているため、クエリ語彙をLMトークン化に慣れた語彙に置き換えれば、モデルの性能が向上する可能性がある。
クエリに対して慎重に選択された語彙置換を行い、GrailQAデータセットの17%の範囲で絶対的なゲインを求める。
関連論文リスト
- Less is More: Making Smaller Language Models Competent Subgraph Retrievers for Multi-hop KGQA [51.3033125256716]
本研究では,小言語モデルで処理される条件生成タスクとして,サブグラフ検索タスクをモデル化する。
2億2千万のパラメータからなる基本生成部分グラフ検索モデルでは,最先端モデルと比較して競合検索性能が向上した。
LLMリーダを接続した最大の3Bモデルは、WebQSPとCWQベンチマークの両方で、SOTAのエンドツーエンドパフォーマンスを新たに設定します。
論文 参考訳(メタデータ) (2024-10-08T15:22:36Z) - Semantic Parsing for Conversational Question Answering over Knowledge
Graphs [63.939700311269156]
本研究では,ユーザの質問にSparqlパースとアノテートし,システム回答が実行結果に対応するデータセットを開発する。
本稿では,2つの意味解析手法を提案し,その課題を強調した。
私たちのデータセットとモデルはhttps://github.com/Edinburgh/SPICE.orgで公開されています。
論文 参考訳(メタデータ) (2023-01-28T14:45:11Z) - XRICL: Cross-lingual Retrieval-Augmented In-Context Learning for
Cross-lingual Text-to-SQL Semantic Parsing [70.40401197026925]
大規模言語モデルを用いたインコンテキスト学習は、最近セマンティック解析タスクの驚くべき結果を示している。
この研究は、あるクエリに対して関連する英語の例を検索する学習を行うXRICLフレームワークを導入している。
また、大規模言語モデルの翻訳プロセスを容易にするために、対象言語に対するグローバルな翻訳例も含んでいる。
論文 参考訳(メタデータ) (2022-10-25T01:33:49Z) - Improving Text-to-SQL Semantic Parsing with Fine-grained Query
Understanding [84.04706075621013]
トークンレベルのきめ細かいクエリ理解に基づく汎用的モジュール型ニューラルネットワーク解析フレームワークを提案する。
我々のフレームワークは、名前付きエンティティ認識(NER)、ニューラルエンティティリンカ(NEL)、ニューラルエンティティリンカ(NSP)の3つのモジュールから構成されている。
論文 参考訳(メタデータ) (2022-09-28T21:00:30Z) - Modern Baselines for SPARQL Semantic Parsing [28.088516108293653]
我々は、自然言語の質問からSPARQLクエリを生成するタスクに焦点を当て、知識グラフ上で実行できる。
T5 は特別な入力トークン化を必要とするが,LC-QuAD 1.0 および LC-QuAD 2.0 データセット上でのアートパフォーマンスの状態を生成する。
この方法では、入力の一部を出力クエリにコピーする必要がある問題に対するセマンティック解析が可能となり、KGセマンティック解析における新しいパラダイムが実現される。
論文 参考訳(メタデータ) (2022-04-27T09:26:59Z) - Bridging Cross-Lingual Gaps During Leveraging the Multilingual
Sequence-to-Sequence Pretraining for Text Generation [80.16548523140025]
プレトレインとファインチューンの間のギャップを埋めるために、コードスイッチングの復元タスクを追加して、バニラプレトレイン-ファインチューンパイプラインを拡張します。
提案手法は,言語間文表現距離を狭くし,簡単な計算コストで低周波語翻訳を改善する。
論文 参考訳(メタデータ) (2022-04-16T16:08:38Z) - Reducing the impact of out of vocabulary words in the translation of
natural language questions into SPARQL queries [5.97507595130844]
SPARQLにおける自然言語による質問の自動翻訳は、この問題を克服する可能性を秘めている。
ニューラルマシン翻訳に基づく既存のシステムは、トレーニングセットのアウト・オブ・ザ・ボキャブラリ(OOV)である単語を認識するのに非常に効果的であるが、容易に失敗する。
論文 参考訳(メタデータ) (2021-11-04T16:53:59Z) - SPARQLing Database Queries from Intermediate Question Decompositions [7.475027071883912]
自然言語の質問をデータベースクエリに変換するために、ほとんどのアプローチは、完全に注釈付けされたトレーニングセットに依存している。
データベースの中間問題表現を基盤として,この負担を軽減する。
我々のパイプラインは、自然言語質問を中間表現に変換するセマンティックと、訓練不能なトランスパイラをQLSPARクエリ言語に変換する2つの部分から構成される。
論文 参考訳(メタデータ) (2021-09-13T17:57:12Z) - SPBERT: Pre-training BERT on SPARQL Queries for End-to-end Question
Answering over Knowledge Graphs [1.1775939485654976]
SPBERTは、大規模なSPARQLクエリログを事前トレーニングしたTransformerベースの言語モデルである。
本研究では,SPBERTとエンコーダデコーパスアーキテクチャを知識ベースQAコーパスに適用する方法について検討する。
論文 参考訳(メタデータ) (2021-06-18T08:39:26Z) - Words aren't enough, their order matters: On the Robustness of Grounding
Visual Referring Expressions [87.33156149634392]
視覚的参照表現認識のための標準ベンチマークであるRefCOgを批判的に検討する。
83.7%のケースでは言語構造に関する推論は不要である。
比較学習とマルチタスク学習の2つの手法を提案し,ViLBERTのロバスト性を高める。
論文 参考訳(メタデータ) (2020-05-04T17:09:15Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。