論文の概要: CBR-iKB: A Case-Based Reasoning Approach for Question Answering over
Incomplete Knowledge Bases
- arxiv url: http://arxiv.org/abs/2204.08554v1
- Date: Mon, 18 Apr 2022 20:46:41 GMT
- ステータス: 処理完了
- システム内更新日: 2022-04-20 13:14:00.134990
- Title: CBR-iKB: A Case-Based Reasoning Approach for Question Answering over
Incomplete Knowledge Bases
- Title(参考訳): CBR-iKB:不完全知識に基づく質問応答のためのケースベース推論手法
- Authors: Dung Thai, Srinivas Ravishankar, Ibrahim Abdelaziz, Mudit Chaudhary,
Nandana Mihindukulasooriya, Tahira Naseem, Rajarshi Das, Pavan Kapanipathi,
Achille Fokoue, Andrew McCallum
- Abstract要約: ケースベースの推論手法であるCBR-iKBを,不完全KBを主眼とした知識ベース質問応答(KBQA)に提案する。
設計上、CBR-iKBはタスク固有のトレーニングや微調整なしにKBの変更にシームレスに適応できる。
提案手法は,MetaQAで100%精度を達成し,複数のベンチマークで新たな最先端性を確立する。
- 参考スコア(独自算出の注目度): 39.45030211564547
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Knowledge bases (KBs) are often incomplete and constantly changing in
practice. Yet, in many question answering applications coupled with knowledge
bases, the sparse nature of KBs is often overlooked. To this end, we propose a
case-based reasoning approach, CBR-iKB, for knowledge base question answering
(KBQA) with incomplete-KB as our main focus. Our method ensembles decisions
from multiple reasoning chains with a novel nonparametric reasoning algorithm.
By design, CBR-iKB can seamlessly adapt to changes in KBs without any
task-specific training or fine-tuning. Our method achieves 100% accuracy on
MetaQA and establishes new state-of-the-art on multiple benchmarks. For
instance, CBR-iKB achieves an accuracy of 70% on WebQSP under the incomplete-KB
setting, outperforming the existing state-of-the-art method by 22.3%.
- Abstract(参考訳): 知識ベース(kbs)はしばしば不完全であり、常に変化する。
しかし、知識ベースと組み合わされたアプリケーションに答える多くの問題において、KBのスパースな性質はしばしば見過ごされる。
そこで本研究では,知識ベース質問応答(KBQA)のケースベース推論手法であるCBR-iKBを提案する。
提案手法は,新しい非パラメトリック推論アルゴリズムを用いて複数の推論チェーンから決定をアンサンブルする。
設計上、CBR-iKBはタスク固有のトレーニングや微調整なしにKBの変更にシームレスに適応できる。
提案手法はMetaQAで100%精度を達成し,複数のベンチマークで新たな最先端性を確立する。
例えば、CBR-iKBは、不完全なKB設定の下でWebQSP上で70%の精度を達成し、既存の最先端メソッドを22.3%上回っている。
関連論文リスト
- A Learn-Then-Reason Model Towards Generalization in Knowledge Base Question Answering [17.281005999581865]
FreebaseやWikidataのような大規模知識ベース(KB)には、数百万の構造化知識がある。
Knowledge Base Question Answering (KBQA)は、自然言語の質問を通じて、これらの貴重なKBにアクセスするためのユーザフレンドリな方法を提供する。
本稿では,KBLLaMAを開発した。KBLLaMAは,新しいKB知識を言語モデルに注入し,フレキシブルなエンドツーエンドKBQAを実現するためのフレームワークである。
論文 参考訳(メタデータ) (2024-06-20T22:22:41Z) - Two is Better Than One: Answering Complex Questions by Multiple
Knowledge Sources with Generalized Links [31.941956320431217]
複数KB間の全リンクと部分リンクを利用して正しい回答を導出する新しいMulti-KB-QAタスクを定式化する。
そこで本研究では,KB埋め込みのすべてのリンク関係を符号化して,候補解のスコアとランク付けを行うマルチKB-QAを提案する。
論文 参考訳(メタデータ) (2023-09-11T02:31:41Z) - FC-KBQA: A Fine-to-Coarse Composition Framework for Knowledge Base
Question Answering [24.394908238940904]
論理式の一般化能力と実行性を確保するため,KBQA (FC-KBQA) のためのファイン・ツー・コア・コンポジション・フレームワークを提案する。
FC-KBQA は GrailQA と WebQSP で最先端のパフォーマンスを新たに提供し、ベースラインの 4 倍の速度で動作している。
論文 参考訳(メタデータ) (2023-06-26T14:19:46Z) - QA Is the New KR: Question-Answer Pairs as Knowledge Bases [105.692569000534]
提案するKBの形式は,従来のシンボリックKBの重要な利点を多く備えている,と我々は主張する。
従来のKBとは異なり、この情報ストアは一般的なユーザ情報のニーズによく適合している。
論文 参考訳(メタデータ) (2022-07-01T19:09:08Z) - Combining Rules and Embeddings via Neuro-Symbolic AI for Knowledge Base
Completion [59.093293389123424]
すべてのルールベースの知識ベースコンプリートモデルが同じではないことを示す。
1)関係の混合と,2)経路の混合の2つの異なるアプローチを提案する。
ブール論理を実数値論理に拡張することでルールを学習するニューロシンボリックAI上に実装すると、後者のモデルは、平均相互ランクにおいて、最先端のKBC精度を2-10%向上させる。
論文 参考訳(メタデータ) (2021-09-16T17:54:56Z) - Case-based Reasoning for Natural Language Queries over Knowledge Bases [41.54465521439727]
本稿では,大きな知識ベースに対する質問応答のための神経シンボル的CBR手法を提案する。
CBR-KBQAは、ケースを格納する非パラメトリックメモリとパラメトリックモデルという2つのモジュールから構成される。
CBR-KBQAは、ケースメモリに表示されない関係の新規な組み合わせを効果的に導出できることを示す。
論文 参考訳(メタデータ) (2021-04-18T07:50:31Z) - Reasoning Over Virtual Knowledge Bases With Open Predicate Relations [85.19305347984515]
Open Predicate Query Language (OPQL) を紹介します。
OPQLは、テキストから完全にトレーニングされた仮想知識ベース(VKB)を構築する方法である。
OPQLは2つの異なるKB推論タスクにおいて、以前のVKBメソッドよりも優れていることを示す。
論文 参考訳(メタデータ) (2021-02-14T01:29:54Z) - Beyond I.I.D.: Three Levels of Generalization for Question Answering on
Knowledge Bases [63.43418760818188]
GrailQA.comは64,331の質問で、新しい大規模で高品質なデータセットをリリースしました。
BERTベースのKBQAモデルを提案する。
データセットとモデルの組み合わせにより、KBQAの一般化におけるBERTのような事前学習されたコンテキスト埋め込みの重要な役割を、初めて徹底的に検証し、実証することが可能になります。
論文 参考訳(メタデータ) (2020-11-16T06:36:26Z) - Faithful Embeddings for Knowledge Base Queries [97.5904298152163]
理想的知識ベース(KB)の帰納的閉包は、KBが答えられる論理的クエリを正確に含んでいる。
実際にはKBは不完全かつ過剰な仕様であり、現実の答えを持つクエリには答えられない。
この新たなQEモジュールをニューラルな質問応答システムに挿入すると、最先端技術よりも大幅に改善されることを示す。
論文 参考訳(メタデータ) (2020-04-07T19:25:16Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。