論文の概要: ComplexTempQA:A 100m Dataset for Complex Temporal Question Answering
- arxiv url: http://arxiv.org/abs/2406.04866v3
- Date: Fri, 22 Aug 2025 20:29:27 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-08-26 18:43:44.983472
- Title: ComplexTempQA:A 100m Dataset for Complex Temporal Question Answering
- Title(参考訳): ComplexTempQA:複合時間質問応答のための100mデータセット
- Authors: Raphael Gruber, Abdelrahman Abdallah, Michael Färber, Adam Jatowt,
- Abstract要約: textscComplexTempQAは1億以上の質問応答ペアからなる大規模データセットである。
このデータセットは、20年以上にわたる質問をカバーし、未一致のスケールを提供する。
- 参考スコア(独自算出の注目度): 25.087682068682735
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: We introduce \textsc{ComplexTempQA},\footnote{Dataset and code available at: https://github.com/DataScienceUIBK/ComplexTempQA} a large-scale dataset consisting of over 100 million question-answer pairs designed to tackle the challenges in temporal question answering. \textsc{ComplexTempQA} significantly surpasses existing benchmarks in scale and scope. Utilizing Wikipedia and Wikidata, the dataset covers questions spanning over two decades and offers an unmatched scale. We introduce a new taxonomy that categorizes questions as \textit{attributes}, \textit{comparisons}, and \textit{counting} questions, revolving around events, entities, and time periods, respectively. A standout feature of \textsc{ComplexTempQA} is the high complexity of its questions, which demand reasoning capabilities for answering such as across-time comparison, temporal aggregation, and multi-hop reasoning involving temporal event ordering and entity recognition. Additionally, each question is accompanied by detailed metadata, including specific time scopes, allowing for comprehensive evaluation of temporal reasoning abilities of large language models.
- Abstract(参考訳): https://github.com/DataScienceUIBK/ComplexTempQA} は、時間的質問応答の課題に対処するために設計された1億以上の質問応答ペアからなる大規模なデータセットである。
\textsc{ComplexTempQA} はスケールとスコープにおいて既存のベンチマークを大幅に上回っている。
WikipediaとWikidataを利用して、データセットは20年以上にわたる質問をカバーし、一致しないスケールを提供する。
本稿では, 質問を, イベント, エンティティ, 期間を中心に展開する, \textit{attributes} と \textit{comparisons} と \textit{counting} に分類する新たな分類法を提案する。
これは、時間的比較、時間的集約、時間的イベント順序付けやエンティティ認識を含むマルチホップ推論といった、回答の推論能力を要求するものだ。
さらに、各質問には、特定の時間範囲を含む詳細なメタデータが伴い、大きな言語モデルの時間的推論能力の包括的な評価を可能にする。
関連論文リスト
- The benefits of query-based KGQA systems for complex and temporal questions in LLM era [55.20230501807337]
大規模言語モデルは質問回答(QA)に優れていますが、マルチホップ推論や時間的質問には苦戦しています。
クエリベースの知識グラフ QA (KGQA) は、直接回答の代わりに実行可能なクエリを生成するモジュール形式の代替手段を提供する。
WikiData QAのためのマルチステージクエリベースのフレームワークについて検討し、課題のあるマルチホップと時間ベンチマークのパフォーマンスを向上させるマルチステージアプローチを提案する。
論文 参考訳(メタデータ) (2025-07-16T06:41:03Z) - Evaluating List Construction and Temporal Understanding capabilities of Large Language Models [54.39278049092508]
大規模言語モデル(LLM)は、特に時間的理解タスクにおける幻覚や誤りの影響を受けやすい。
本稿では,時系列に適合するリスト形式で構造化された回答を必要とするTLQA(Time Referenceed List based Question Answering)ベンチマークを提案する。
閉書およびオープンドメイン設定におけるTLQA上の最先端生成モデルの時間的理解とリスト構築能力について検討する。
論文 参考訳(メタデータ) (2025-06-26T21:40:58Z) - It's High Time: A Survey of Temporal Question Answering [17.07150094603319]
TQA(Temporal Question Answering)は、時間的制約や文脈に関する質問に答えることに焦点を当てている。
ニューラルモデルと大規模言語モデル(LLM)によるTQAの最近の進歩
時間的堅牢性、傾向認識、一般化をテストするために設計されたベンチマークデータセットと評価戦略。
論文 参考訳(メタデータ) (2025-05-26T17:21:26Z) - Time-MQA: Time Series Multi-Task Question Answering with Context Enhancement [55.2439260314328]
Time Series Multi-Task Question Answering (Time-MQA)は、複数の時系列タスクにわたる自然言語クエリを可能にする統合フレームワークである。
Time-MQAの中心はTSQAデータセットである。
論文 参考訳(メタデータ) (2025-02-26T13:47:13Z) - TimeLogic: A Temporal Logic Benchmark for Video QA [64.32208175236323]
時間的論理的質問を自動的に生成するTimeLogic QA(TLQA)フレームワークを導入する。
私たちはSTAR、Breakfast、AGQA、CrossTaskの4つのデータセットを活用し、カテゴリ毎に2kと10kのQAペアを生成します。
時間的複雑性の異なる16カテゴリの時間論理に対して,ビデオQAモデルの時間的推論性能を評価する。
論文 参考訳(メタデータ) (2025-01-13T11:12:59Z) - Multi-hop Question Answering under Temporal Knowledge Editing [9.356343796845662]
知識編集(KE)におけるマルチホップ質問応答(MQA)は,大規模言語モデルの時代において大きな注目を集めている。
KEの下でのMQAの既存のモデルは、明示的な時間的コンテキストを含む質問を扱う場合、パフォーマンスが劣っている。
TEMPoral knowLEdge augmented Multi-hop Question Answering (TEMPLE-MQA) を提案する。
論文 参考訳(メタデータ) (2024-03-30T23:22:51Z) - Automatic Question-Answer Generation for Long-Tail Knowledge [65.11554185687258]
テールエンティティのための特別なQAデータセットを生成するための自動アプローチを提案する。
我々は,新たに生成された長尾QAデータセットに事前学習したLLMを用いて広範な実験を行う。
論文 参考訳(メタデータ) (2024-03-03T03:06:31Z) - Qsnail: A Questionnaire Dataset for Sequential Question Generation [76.616068047362]
質問紙作成作業に特化して構築された最初のデータセットについて述べる。
我々はQsnailの実験を行い、その結果、検索モデルと従来の生成モデルが与えられた研究トピックや意図と完全に一致していないことが明らかとなった。
チェーン・オブ・シークレット・プロンプトと微調整による改善にもかかわらず、言語モデルによるアンケートは、人間の手書きのアンケートには及ばない。
論文 参考訳(メタデータ) (2024-02-22T04:14:10Z) - Joint Multi-Facts Reasoning Network For Complex Temporal Question
Answering Over Knowledge Graph [34.44840297353777]
時間的知識グラフ(TKG)は、時間範囲をアタッチすることで、通常の知識グラフの拡張である。
textbfunderlineMulti textbfunderlineFacts textbfunderlineReasoning textbfunderlineNetwork (JMFRN)を提案する。
論文 参考訳(メタデータ) (2024-01-04T11:34:39Z) - Towards Robust Temporal Reasoning of Large Language Models via a Multi-Hop QA Dataset and Pseudo-Instruction Tuning [73.51314109184197]
大規模言語モデル(LLM)には時間的知識の概念を理解することが不可欠である。
本稿では,複数質問応答と複数ホップの時間的推論に焦点をあてた複雑な時間的質問応答データセットであるComplex-TRを提案する。
論文 参考訳(メタデータ) (2023-11-16T11:49:29Z) - A Benchmark for Generalizable and Interpretable Temporal Question
Answering over Knowledge Bases [67.33560134350427]
TempQA-WDは時間的推論のためのベンチマークデータセットである。
Wikidataは、最も頻繁にキュレーションされ、公開されている知識ベースである。
論文 参考訳(メタデータ) (2022-01-15T08:49:09Z) - TempoQR: Temporal Question Reasoning over Knowledge Graphs [11.054877399064804]
本稿では,知識グラフに関する複雑な疑問に答える包括的埋め込み型フレームワークを提案する。
提案手法は時間的問題推論(TempoQR)と呼ばれ、TKGの埋め込みを利用して、対象とする特定のエンティティや時間範囲に疑問を定めている。
実験の結果,TempoQRの精度は25~45ポイント向上した。
論文 参考訳(メタデータ) (2021-12-10T23:59:14Z) - ConditionalQA: A Complex Reading Comprehension Dataset with Conditional
Answers [93.55268936974971]
条件付き回答を含む複雑な質問を含む質問回答データセットについて述べる。
このデータセットを ConditionalQA と呼びます。
本稿では,既存のQAモデルの多く,特に回答条件の選択において,ConditionalQAは困難であることを示す。
論文 参考訳(メタデータ) (2021-10-13T17:16:46Z) - Complex Temporal Question Answering on Knowledge Graphs [22.996399822102575]
この研究は、複雑な時間的質問に答える最初のエンドツーエンドシステムであるEXAQTを提示する。
知識グラフ(KG)に関する自然言語の質問には、高いリコールを目標とし、上位ランクの精度を目標とする2つのステージで答える。
我々は、様々な汎用KG-QAベンチマークから収集された16kの時間的質問の大規模なデータセットであるTimeQuestionsのEXAQTを評価する。
論文 参考訳(メタデータ) (2021-09-18T13:41:43Z) - QAConv: Question Answering on Informative Conversations [85.2923607672282]
ビジネスメールやパネルディスカッション,作業チャネルなど,情報的な会話に重点を置いています。
合計で、スパンベース、フリーフォーム、および回答不能な質問を含む34,204のQAペアを収集します。
論文 参考訳(メタデータ) (2021-05-14T15:53:05Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。