論文の概要: A Learn-Then-Reason Model Towards Generalization in Knowledge Base Question Answering
- arxiv url: http://arxiv.org/abs/2406.14763v1
- Date: Thu, 20 Jun 2024 22:22:41 GMT
- ステータス: 処理完了
- システム内更新日: 2024-06-24 15:22:05.758363
- Title: A Learn-Then-Reason Model Towards Generalization in Knowledge Base Question Answering
- Title(参考訳): 知識ベース質問応答の一般化に向けての学習理論モデル
- Authors: Lingxi Zhang, Jing Zhang, Yanling Wang, Cuiping Li, Hong Chen,
- Abstract要約: FreebaseやWikidataのような大規模知識ベース(KB)には、数百万の構造化知識がある。
Knowledge Base Question Answering (KBQA)は、自然言語の質問を通じて、これらの貴重なKBにアクセスするためのユーザフレンドリな方法を提供する。
本稿では,KBLLaMAを開発した。KBLLaMAは,新しいKB知識を言語モデルに注入し,フレキシブルなエンドツーエンドKBQAを実現するためのフレームワークである。
- 参考スコア(独自算出の注目度): 17.281005999581865
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Large-scale knowledge bases (KBs) like Freebase and Wikidata house millions of structured knowledge. Knowledge Base Question Answering (KBQA) provides a user-friendly way to access these valuable KBs via asking natural language questions. In order to improve the generalization capabilities of KBQA models, extensive research has embraced a retrieve-then-reason framework to retrieve relevant evidence for logical expression generation. These multi-stage efforts prioritize acquiring external sources but overlook the incorporation of new knowledge into their model parameters. In effect, even advanced language models and retrievers have knowledge boundaries, thereby limiting the generalization capabilities of previous KBQA models. Therefore, this paper develops KBLLaMA, which follows a learn-then-reason framework to inject new KB knowledge into a large language model for flexible end-to-end KBQA. At the core of KBLLaMA, we study (1) how to organize new knowledge about KBQA and (2) how to facilitate the learning of the organized knowledge. Extensive experiments on various KBQA generalization tasks showcase the state-of-the-art performance of KBLLaMA. Especially on the general benchmark GrailQA and domain-specific benchmark Bio-chemical, KBLLaMA respectively derives a performance gain of up to 3.8% and 9.8% compared to the baselines.
- Abstract(参考訳): FreebaseやWikidataのような大規模知識ベース(KB)には、数百万の構造化知識がある。
Knowledge Base Question Answering (KBQA)は、自然言語の質問を通じて、これらの貴重なKBにアクセスするためのユーザフレンドリな方法を提供する。
KBQAモデルの一般化能力を向上するために、論理式生成に関する適切な証拠を取得するための検索・推論フレームワークが広く研究されている。
これらの多段階的な取り組みは、外部ソースの取得を優先するが、モデルパラメータに新しい知識が組み込まれていることを見落としている。
事実上、高度な言語モデルや検索者でさえ知識境界を持ち、従来のKBQAモデルの一般化能力を制限している。
そこで本研究では,KBLLaMAを開発した。KBLLaMAは,新たなKB知識を言語モデルに注入し,フレキシブルなエンドツーエンドKBQAを実現するためのフレームワークである。
KBLLaMAのコアでは,(1)KBQAに関する新しい知識を整理する方法,(2)組織化された知識の学習を促進する方法について検討する。
KBQAの一般化タスクに関する大規模な実験は、KBLLaMAの最先端性能を示している。
特に一般的なベンチマークであるGrailQAとドメイン固有のベンチマークであるBio-chemicalでは、KBLLaMAはベースラインと比較して最大3.8%と9.8%のパフォーマンス向上を導出している。
関連論文リスト
- A Knowledge-Injected Curriculum Pretraining Framework for Question Answering [70.13026036388794]
本稿では,知識に基づく質問応答タスクの総合的なKG学習と活用を実現するための一般知識注入型カリキュラム事前学習フレームワーク(KICP)を提案する。
KIモジュールはまずKG中心の事前学習コーパスを生成してLMに知識を注入し、プロセスを3つの重要なステップに一般化する。
KAモジュールは、アダプタを備えたLMで生成されたコーパスから知識を学習し、元の自然言語理解能力を維持できる。
CRモジュールは人間の推論パターンに従って3つのコーパスを構築する。
論文 参考訳(メタデータ) (2024-03-11T03:42:03Z) - ChatKBQA: A Generate-then-Retrieve Framework for Knowledge Base Question Answering with Fine-tuned Large Language Models [19.85526116658481]
本稿では,新規かつ簡易な生成検索KBQAフレームワークであるChatKBQAを紹介する。
実験の結果,ChatKBQAは標準KBQAデータセット上で新たな最先端性能を実現することがわかった。
この研究は、LLMと知識グラフを組み合わせるための新しいパラダイムとして、解釈可能および知識要求型質問応答のパラダイムと見なすこともできる。
論文 参考訳(メタデータ) (2023-10-13T09:45:14Z) - KnowledGPT: Enhancing Large Language Models with Retrieval and Storage
Access on Knowledge Bases [55.942342665806656]
KnowledGPTは、様々な知識ベースで大きな言語モデルをブリッジするための包括的なフレームワークである。
検索プロセスでは思考プロンプトプログラムを使用し,KBの検索言語をコード形式で生成する。
KnowledGPTは、個々のユーザ要求に合わせて、知識をパーソナライズされたKBに格納する機能を提供する。
論文 参考訳(メタデータ) (2023-08-17T13:07:00Z) - FC-KBQA: A Fine-to-Coarse Composition Framework for Knowledge Base
Question Answering [24.394908238940904]
論理式の一般化能力と実行性を確保するため,KBQA (FC-KBQA) のためのファイン・ツー・コア・コンポジション・フレームワークを提案する。
FC-KBQA は GrailQA と WebQSP で最先端のパフォーマンスを新たに提供し、ベースラインの 4 倍の速度で動作している。
論文 参考訳(メタデータ) (2023-06-26T14:19:46Z) - Few-shot In-context Learning for Knowledge Base Question Answering [31.73274700847965]
本稿では,KB-BINDERを提案する。
4つの公開ヘテロジニアスKBQAデータセットの実験結果から,KB-BINDERはコンテクスト内デモを数回しか行わず,高い性能が得られることが示された。
論文 参考訳(メタデータ) (2023-05-02T19:31:55Z) - A Two-Stage Approach towards Generalization in Knowledge Base Question
Answering [4.802205743713997]
知識ベース相互作用から意味解析を明確に分離する2段階アーキテクチャに基づくKBQAフレームワークを提案する。
我々のアプローチはLC-QuAD(DBpedia)、WebQSP(Freebase)、SimpleQuestions(Wikidata)、MetaQA(Wikimovies-KG)の同等ないし最先端のパフォーマンスを実現する。
論文 参考訳(メタデータ) (2021-11-10T17:45:33Z) - SYGMA: System for Generalizable Modular Question Answering OverKnowledge
Bases [57.89642289610301]
SYGMAは、複数の知識ベースと複数のリアソニングタイプにまたがる汎用化を容易にするモジュラーアプローチである。
本システムの有効性を,DBpediaとWikidataの2つの異なる知識ベースに属するデータセットを用いて評価することで実証する。
論文 参考訳(メタデータ) (2021-09-28T01:57:56Z) - Reasoning Over Virtual Knowledge Bases With Open Predicate Relations [85.19305347984515]
Open Predicate Query Language (OPQL) を紹介します。
OPQLは、テキストから完全にトレーニングされた仮想知識ベース(VKB)を構築する方法である。
OPQLは2つの異なるKB推論タスクにおいて、以前のVKBメソッドよりも優れていることを示す。
論文 参考訳(メタデータ) (2021-02-14T01:29:54Z) - Beyond I.I.D.: Three Levels of Generalization for Question Answering on
Knowledge Bases [63.43418760818188]
GrailQA.comは64,331の質問で、新しい大規模で高品質なデータセットをリリースしました。
BERTベースのKBQAモデルを提案する。
データセットとモデルの組み合わせにより、KBQAの一般化におけるBERTのような事前学習されたコンテキスト埋め込みの重要な役割を、初めて徹底的に検証し、実証することが可能になります。
論文 参考訳(メタデータ) (2020-11-16T06:36:26Z) - A Survey on Complex Question Answering over Knowledge Base: Recent
Advances and Challenges [71.4531144086568]
知識ベース(KB)に対する質問回答(QA)は、自然言語の質問に自動的に答えることを目的としている。
研究者は、よりKBのトリプルと制約推論を必要とする単純な質問から複雑な質問へと注意を移した。
論文 参考訳(メタデータ) (2020-07-26T07:13:32Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。