論文の概要: Beyond Seen Data: Improving KBQA Generalization Through Schema-Guided Logical Form Generation
- arxiv url: http://arxiv.org/abs/2502.12737v2
- Date: Wed, 19 Feb 2025 05:32:40 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-02-20 14:01:42.086404
- Title: Beyond Seen Data: Improving KBQA Generalization Through Schema-Guided Logical Form Generation
- Title(参考訳): Seen Dataを超えて - スキーマガイドによる論理形式生成によるKBQA一般化の改善
- Authors: Shengxiang Gao, Jey Han Lau, Jianzhong Qi,
- Abstract要約: 知識ベース質問応答 (KBQA) は、大きなKBに格納された豊富な人間の知識を用いて、自然言語でユーザーの質問に答えることを目的としている。
現在のKBQAメソッドは、テスト時に見知らぬ知識ベース要素と競合する。
本稿では,スキーマコンテキストをエンティティ検索や論理形式生成に注入する新しいモデルであるSG-KBQAを紹介する。
- 参考スコア(独自算出の注目度): 36.01290160488469
- License:
- Abstract: Knowledge base question answering (KBQA) aims to answer user questions in natural language using rich human knowledge stored in large KBs. As current KBQA methods struggle with unseen knowledge base elements at test time,we introduce SG-KBQA: a novel model that injects schema contexts into entity retrieval and logical form generation to tackle this issue. It uses the richer semantics and awareness of the knowledge base structure provided by schema contexts to enhance generalizability. We show that SG-KBQA achieves strong generalizability, outperforming state-of-the-art models on two commonly used benchmark datasets across a variety of test settings. Our source code is available at https://github.com/gaosx2000/SG_KBQA.
- Abstract(参考訳): 知識ベース質問応答 (KBQA) は、大きなKBに格納された豊富な人間の知識を用いて、自然言語でユーザーの質問に答えることを目的としている。
現在のKBQAメソッドは、テスト時に見知らぬ知識ベース要素と競合するため、スキーマコンテキストをエンティティ検索に注入する新しいモデルであるSG-KBQAを導入し、この問題に対処する。
汎用性を高めるために、スキーマコンテキストによって提供される知識ベース構造をよりリッチなセマンティクスと認識を使用する。
SG-KBQAは、様々なテスト設定でよく使用される2つのベンチマークデータセット上で、最先端のモデルよりも高い一般化性が得られることを示す。
ソースコードはhttps://github.com/gaosx2000/SG_KBQA.comで公開されています。
関連論文リスト
- A Learn-Then-Reason Model Towards Generalization in Knowledge Base Question Answering [17.281005999581865]
FreebaseやWikidataのような大規模知識ベース(KB)には、数百万の構造化知識がある。
Knowledge Base Question Answering (KBQA)は、自然言語の質問を通じて、これらの貴重なKBにアクセスするためのユーザフレンドリな方法を提供する。
本稿では,KBLLaMAを開発した。KBLLaMAは,新しいKB知識を言語モデルに注入し,フレキシブルなエンドツーエンドKBQAを実現するためのフレームワークである。
論文 参考訳(メタデータ) (2024-06-20T22:22:41Z) - ChatKBQA: A Generate-then-Retrieve Framework for Knowledge Base Question Answering with Fine-tuned Large Language Models [19.85526116658481]
本稿では,新規かつ簡易な生成検索KBQAフレームワークであるChatKBQAを紹介する。
実験の結果,ChatKBQAは標準KBQAデータセット上で新たな最先端性能を実現することがわかった。
この研究は、LLMと知識グラフを組み合わせるための新しいパラダイムとして、解釈可能および知識要求型質問応答のパラダイムと見なすこともできる。
論文 参考訳(メタデータ) (2023-10-13T09:45:14Z) - Uni-Parser: Unified Semantic Parser for Question Answering on Knowledge
Base and Database [86.03294330305097]
知識ベース(KB)とデータベース(DB)の両方で質問応答(QA)を統一した意味的要素を提案する。
フレームワークに不可欠な要素としてプリミティブ(KBのリレーションとエンティティ、テーブル名、列名、DBのセル値)を導入します。
生成元を利用して、異なる操作でトップランクプリミティブを変更・構成することで、最終的な論理形式を予測する。
論文 参考訳(メタデータ) (2022-11-09T19:33:27Z) - TIARA: Multi-grained Retrieval for Robust Question Answering over Large
Knowledge Bases [20.751369684593985]
TIARAは、PLMやオラクルエンティティアノテーションなどを含む以前のSOTAよりも、GrailQAおよびWebQuestionsSP上の少なくとも4.1と1.1のF1ポイントが優れている。
論文 参考訳(メタデータ) (2022-10-24T02:41:10Z) - DecAF: Joint Decoding of Answers and Logical Forms for Question
Answering over Knowledge Bases [81.19499764899359]
本稿では,論理形式と直解の両方を共同で生成する新しいフレームワークDecAFを提案する。
DecAFはWebQSP、FreebaseQA、GrailQAベンチマークで新しい最先端の精度を実現している。
論文 参考訳(メタデータ) (2022-09-30T19:51:52Z) - A Two-Stage Approach towards Generalization in Knowledge Base Question
Answering [4.802205743713997]
知識ベース相互作用から意味解析を明確に分離する2段階アーキテクチャに基づくKBQAフレームワークを提案する。
我々のアプローチはLC-QuAD(DBpedia)、WebQSP(Freebase)、SimpleQuestions(Wikidata)、MetaQA(Wikimovies-KG)の同等ないし最先端のパフォーマンスを実現する。
論文 参考訳(メタデータ) (2021-11-10T17:45:33Z) - SYGMA: System for Generalizable Modular Question Answering OverKnowledge
Bases [57.89642289610301]
SYGMAは、複数の知識ベースと複数のリアソニングタイプにまたがる汎用化を容易にするモジュラーアプローチである。
本システムの有効性を,DBpediaとWikidataの2つの異なる知識ベースに属するデータセットを用いて評価することで実証する。
論文 参考訳(メタデータ) (2021-09-28T01:57:56Z) - RnG-KBQA: Generation Augmented Iterative Ranking for Knowledge Base
Question Answering [57.94658176442027]
KBQAのランク・アンド・ジェネレートアプローチであるRnG-KBQAを提案する。
我々はGrailQA と WebQSP データセット上で,最先端の新たな結果を得る。
論文 参考訳(メタデータ) (2021-09-17T17:58:28Z) - Beyond I.I.D.: Three Levels of Generalization for Question Answering on
Knowledge Bases [63.43418760818188]
GrailQA.comは64,331の質問で、新しい大規模で高品質なデータセットをリリースしました。
BERTベースのKBQAモデルを提案する。
データセットとモデルの組み合わせにより、KBQAの一般化におけるBERTのような事前学習されたコンテキスト埋め込みの重要な役割を、初めて徹底的に検証し、実証することが可能になります。
論文 参考訳(メタデータ) (2020-11-16T06:36:26Z) - A Survey on Complex Question Answering over Knowledge Base: Recent
Advances and Challenges [71.4531144086568]
知識ベース(KB)に対する質問回答(QA)は、自然言語の質問に自動的に答えることを目的としている。
研究者は、よりKBのトリプルと制約推論を必要とする単純な質問から複雑な質問へと注意を移した。
論文 参考訳(メタデータ) (2020-07-26T07:13:32Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。