論文の概要: DBLP-QuAD: A Question Answering Dataset over the DBLP Scholarly
Knowledge Graph
- arxiv url: http://arxiv.org/abs/2303.13351v2
- Date: Tue, 28 Mar 2023 09:47:57 GMT
- ステータス: 処理完了
- システム内更新日: 2023-03-29 18:04:24.668816
- Title: DBLP-QuAD: A Question Answering Dataset over the DBLP Scholarly
Knowledge Graph
- Title(参考訳): DBLP-QuAD:DBLP Scholarly Knowledge Graph上の質問応答データセット
- Authors: Debayan Banerjee, Sushil Awale, Ricardo Usbeck, Chris Biemann
- Abstract要約: 本研究では,DBLP学術知識グラフ(KG)上に質問データセットを作成する。
我々のデータセットは1万の質問応答対と対応するSPARQLクエリで構成されており、DBLP KG上で実行して正しい回答を取得することができる。
- 参考スコア(独自算出の注目度): 20.734859343886843
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: In this work we create a question answering dataset over the DBLP scholarly
knowledge graph (KG). DBLP is an on-line reference for bibliographic
information on major computer science publications that indexes over 4.4
million publications published by more than 2.2 million authors. Our dataset
consists of 10,000 question answer pairs with the corresponding SPARQL queries
which can be executed over the DBLP KG to fetch the correct answer. DBLP-QuAD
is the largest scholarly question answering dataset.
- Abstract(参考訳): 本研究では,DBLP学術知識グラフ(KG)上で質問応答データセットを作成する。
dblpは、2200万以上の著者が出版した440万以上の出版物をインデックス化する主要なコンピュータサイエンス出版物の書誌情報のオンラインリファレンスである。
我々のデータセットは1万の質問応答対と対応するSPARQLクエリで構成されており、DBLP KG上で実行して正しい回答を取得することができる。
DBLP-QuADは学術的な質問応答データセットとしては最大である。
関連論文リスト
- PeerQA: A Scientific Question Answering Dataset from Peer Reviews [51.95579001315713]
実世界の科学的、文書レベルの質問回答データセットであるPeerQAを提示する。
データセットには208の学術論文から579のQAペアが含まれており、MLとNLPが多数を占めている。
収集したデータセットを詳細に分析し、3つのタスクのベースラインシステムを確立する実験を行う。
論文 参考訳(メタデータ) (2025-02-19T12:24:46Z) - Hybrid-SQuAD: Hybrid Scholarly Question Answering Dataset [8.867885891794877]
我々は,新しい大規模Scholarly Question AnsweringデータセットであるHybrid-SQuADを紹介する。
データセットは、大きな言語モデルによって生成される10.5Kの質問応答ペアで構成されている。
RAGベースのベースラインハイブリッドQAモデルを提案し、Hybrid-SQuADテストセット上で69.65の正確な一致スコアを達成する。
論文 参考訳(メタデータ) (2024-12-03T19:37:00Z) - Integrating SPARQL and LLMs for Question Answering over Scholarly Data Sources [0.0]
本稿では,SPARQLクエリを合成し,アルゴリズムを分割・征服する手法と,事前学習した抽出質問応答モデルについて述べる。
まずSPARQLクエリからデータを収集し、次に分割と分割を適用してさまざまな質問タイプとソースを管理し、モデルを使用して個人的な著者の質問を処理する。
Exact MatchとFスコアのメトリクスで評価されたこの手法は、学術的な文脈におけるQAの精度と効率を改善することを約束している。
論文 参考訳(メタデータ) (2024-09-11T14:50:28Z) - KET-QA: A Dataset for Knowledge Enhanced Table Question Answering [63.56707527868466]
本研究では,TableQAの外部知識源として知識ベース(KB)を用いることを提案する。
すべての質問は、答えるテーブルとサブグラフの両方からの情報を統合する必要がある。
我々は,膨大な知識サブグラフから関連する情報を抽出するために,レトリバー・レゾナー構造パイプラインモデルを設計する。
論文 参考訳(メタデータ) (2024-05-13T18:26:32Z) - NewsQs: Multi-Source Question Generation for the Inquiring Mind [59.79288644158271]
我々は複数のニュース文書に対して質問応答ペアを提供するデータセットであるNewsQsを紹介する。
FAQスタイルのニュース記事に微調整されたT5-Largeモデルによって自動生成される質問を,従来のマルチドキュメント要約データセットに拡張する。
論文 参考訳(メタデータ) (2024-02-28T16:59:35Z) - PCoQA: Persian Conversational Question Answering Dataset [12.07607688189035]
PCoQAデータセットは、9,026のコンテキスト駆動質問を含む情報検索ダイアログを含むリソースである。
PCoQAは、以前の質問応答データセットと比較して、新しい課題を示すように設計されている。
本稿では,PCoQAデータセットを包括的に提示するだけでなく,各種ベンチマークモデルの性能も報告する。
論文 参考訳(メタデータ) (2023-12-07T15:29:34Z) - QUADRo: Dataset and Models for QUestion-Answer Database Retrieval [97.84448420852854]
質問/回答(q/a)ペアのデータベース(DB)が与えられた場合、同じ質問に対してDBをスキャンすることで、対象の質問に答えることができる。
我々は6.3Mのq/aペアからなる大規模DBを構築し、公開質問を用いて、ニューラルIRとq/aペアリランカに基づく新しいシステムを設計する。
我々は、Bing検索エンジン上に構築されたQAシステムという、Webベースの手法とDBベースのアプローチが競合することを示す。
論文 参考訳(メタデータ) (2023-03-30T00:42:07Z) - A Method of Query Graph Reranking for Knowledge Base Question Answering [2.367061689316429]
本稿では,知識ベース質問回答(KBQA)において,知識グラフのサブグラフである最適問合せグラフをより適切に選択し,入力質問に対する回答を検索する手法を提案する。
既存の手法は、トップ1のパフォーマンスとトップn結果のオラクルスコアとの間に大きなギャップがあるという深刻な問題に悩まされている。
論文 参考訳(メタデータ) (2022-04-27T09:57:54Z) - Dual Reader-Parser on Hybrid Textual and Tabular Evidence for Open
Domain Question Answering [78.9863753810787]
世界の知識は構造化データベースに保存されている。
クエリ言語は、複雑な推論を必要とする質問に答えるだけでなく、完全な説明可能性を提供することができる。
論文 参考訳(メタデータ) (2021-08-05T22:04:13Z) - Open Question Answering over Tables and Text [55.8412170633547]
オープンな質問応答(QA)では、質問に対する回答は、質問に対する回答を含む可能性のある文書を検索して分析することによって生成される。
ほとんどのオープンQAシステムは、構造化されていないテキストからのみ情報を取得することを検討している。
我々は,このタスクの性能を評価するために,新しい大規模データセット Open Table-and-Text Question Answering (OTT-QA) を提案する。
論文 参考訳(メタデータ) (2020-10-20T16:48:14Z) - RuBQ: A Russian Dataset for Question Answering over Wikidata [3.394278383312621]
RuBQは、ロシア初の知識ベース質問応答(KBQA)データセットである。
高品質のデータセットは、複雑さの異なる1500のロシアの質問、彼らの英語機械翻訳、WikidataへのSPARQLクエリ、参照回答、ロシアのラベルを含む3つのエンティティのWikidataサンプルで構成されている。
論文 参考訳(メタデータ) (2020-05-21T14:06:15Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。