論文の概要: A Benchmark for Generalizable and Interpretable Temporal Question
Answering over Knowledge Bases
- arxiv url: http://arxiv.org/abs/2201.05793v1
- Date: Sat, 15 Jan 2022 08:49:09 GMT
- ステータス: 処理完了
- システム内更新日: 2022-01-19 13:13:31.014393
- Title: A Benchmark for Generalizable and Interpretable Temporal Question
Answering over Knowledge Bases
- Title(参考訳): 知識ベースに関する時間的質問の一般化と解釈のためのベンチマーク
- Authors: Sumit Neelam, Udit Sharma, Hima Karanam, Shajith Ikbal, Pavan
Kapanipathi, Ibrahim Abdelaziz, Nandana Mihindukulasooriya, Young-Suk Lee,
Santosh Srivastava, Cezar Pendus, Saswati Dana, Dinesh Garg, Achille Fokoue,
G P Shrivatsa Bhargav, Dinesh Khandelwal, Srinivas Ravishankar, Sairam
Gurajada, Maria Chang, Rosario Uceda-Sosa, Salim Roukos, Alexander Gray,
Guilherme Lima, Ryan Riegel, Francois Luus, L Venkata Subramaniam
- Abstract要約: TempQA-WDは時間的推論のためのベンチマークデータセットである。
Wikidataは、最も頻繁にキュレーションされ、公開されている知識ベースである。
- 参考スコア(独自算出の注目度): 67.33560134350427
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Knowledge Base Question Answering (KBQA) tasks that involve complex reasoning
are emerging as an important research direction. However, most existing KBQA
datasets focus primarily on generic multi-hop reasoning over explicit facts,
largely ignoring other reasoning types such as temporal, spatial, and taxonomic
reasoning. In this paper, we present a benchmark dataset for temporal
reasoning, TempQA-WD, to encourage research in extending the present approaches
to target a more challenging set of complex reasoning tasks. Specifically, our
benchmark is a temporal question answering dataset with the following
advantages: (a) it is based on Wikidata, which is the most frequently curated,
openly available knowledge base, (b) it includes intermediate sparql queries to
facilitate the evaluation of semantic parsing based approaches for KBQA, and
(c) it generalizes to multiple knowledge bases: Freebase and Wikidata. The
TempQA-WD dataset is available at https://github.com/IBM/tempqa-wd.
- Abstract(参考訳): 複雑な推論を含む知識ベース質問回答(KBQA)タスクが重要な研究方向として浮上している。
しかしながら、既存のKBQAデータセットのほとんどは、主に、時間的、空間的、および分類学的推論のような他の推論タイプを無視した、明示的な事実に対する一般的なマルチホップ推論に焦点を当てている。
本稿では,時間的推論のためのベンチマークデータセットであるTempQA-WDを提案する。
特に、我々のベンチマークは、以下の利点を持つデータセットに答える一時的な質問です。
(a)wikidataがベースで、最も頻繁にキュレートされ、オープンに入手可能な知識ベースである。
(b)KBQAに対する意味解析に基づくアプローチの評価を容易にする中間的なスパーククエリを含む。
(c) Freebase と Wikidata の複数の知識ベースに一般化する。
TempQA-WDデータセットはhttps://github.com/IBM/tempqa-wd.comで公開されている。
関連論文リスト
- ComplexTempQA: A Large-Scale Dataset for Complex Temporal Question Answering [24.046966640011124]
ComplexTempQAは、1億以上の質問応答ペアからなる大規模なデータセットである。
このデータセットは、20年以上にわたる質問をカバーし、未一致のトピックを提供している。
論文 参考訳(メタデータ) (2024-06-07T12:01:59Z) - Multi-hop Question Answering under Temporal Knowledge Editing [9.356343796845662]
知識編集(KE)におけるマルチホップ質問応答(MQA)は,大規模言語モデルの時代において大きな注目を集めている。
KEの下でのMQAの既存のモデルは、明示的な時間的コンテキストを含む質問を扱う場合、パフォーマンスが劣っている。
TEMPoral knowLEdge augmented Multi-hop Question Answering (TEMPLE-MQA) を提案する。
論文 参考訳(メタデータ) (2024-03-30T23:22:51Z) - Towards Robust Temporal Reasoning of Large Language Models via a Multi-Hop QA Dataset and Pseudo-Instruction Tuning [73.51314109184197]
大規模言語モデル(LLM)には時間的知識の概念を理解することが不可欠である。
本稿では,複数質問応答と複数ホップの時間的推論に焦点をあてた複雑な時間的質問応答データセットであるComplex-TRを提案する。
論文 参考訳(メタデータ) (2023-11-16T11:49:29Z) - Open-Set Knowledge-Based Visual Question Answering with Inference Paths [79.55742631375063]
知識に基づく視覚的質問回答(KB-VQA)の目的は、外部知識ベースの助けを借りて質問に対する正しい回答を提供することである。
KB-VQA, Graph pATH ranker (GATHER for brevity) の新しいレトリバーランカパラダイムを提案する。
具体的には、グラフの構築、プルーニング、パスレベルのランク付けが含まれており、正確な回答を検索するだけでなく、推論パスを提供して推論プロセスを説明する。
論文 参考訳(メタデータ) (2023-10-12T09:12:50Z) - DecAF: Joint Decoding of Answers and Logical Forms for Question
Answering over Knowledge Bases [81.19499764899359]
本稿では,論理形式と直解の両方を共同で生成する新しいフレームワークDecAFを提案する。
DecAFはWebQSP、FreebaseQA、GrailQAベンチマークで新しい最先端の精度を実現している。
論文 参考訳(メタデータ) (2022-09-30T19:51:52Z) - Targeted Extraction of Temporal Facts from Textual Resources for
Improved Temporal Question Answering over Knowledge Bases [21.108609901224572]
知識ベース質問回答システム(KBQA)は、知識ベース(KB)から取得した関連事実を推論することで、複雑な自然言語質問に答えることを目的としている。
これらのシステムで直面する大きな課題の1つは、不完全なKBとエンティティ/リレーショナルリンクエラーによって、関連するすべての事実を検索できないことである。
本稿では,KBから時間的事実を取り出すのに失敗した場合にKBQAを支援するために,対象の時間的事実抽出技術を用いる手法を提案する。
論文 参考訳(メタデータ) (2022-03-21T15:26:35Z) - A Chinese Multi-type Complex Questions Answering Dataset over Wikidata [45.31495982252219]
複雑な知識ベース質問回答は、過去10年間に人気のある研究分野である。
最近の公開データセットはこの分野で結果を奨励しているが、ほとんど英語に限られている。
最先端のKBQAモデルは、最も人気のある現実世界の知識基盤の1つであるWikidataで訓練されている。
CLC-QuADは,これらの課題に対処するために,ウィキデータ上での最初の大規模複雑な中国語意味解析データセットである。
論文 参考訳(メタデータ) (2021-11-11T07:39:16Z) - SYGMA: System for Generalizable Modular Question Answering OverKnowledge
Bases [57.89642289610301]
SYGMAは、複数の知識ベースと複数のリアソニングタイプにまたがる汎用化を容易にするモジュラーアプローチである。
本システムの有効性を,DBpediaとWikidataの2つの異なる知識ベースに属するデータセットを用いて評価することで実証する。
論文 参考訳(メタデータ) (2021-09-28T01:57:56Z) - A Survey on Complex Question Answering over Knowledge Base: Recent
Advances and Challenges [71.4531144086568]
知識ベース(KB)に対する質問回答(QA)は、自然言語の質問に自動的に答えることを目的としている。
研究者は、よりKBのトリプルと制約推論を必要とする単純な質問から複雑な質問へと注意を移した。
論文 参考訳(メタデータ) (2020-07-26T07:13:32Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。