論文の概要: TComQA: Extracting Temporal Commonsense from Text
- arxiv url: http://arxiv.org/abs/2508.15274v1
- Date: Thu, 21 Aug 2025 06:07:40 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-08-22 16:26:46.203105
- Title: TComQA: Extracting Temporal Commonsense from Text
- Title(参考訳): TComQA: テキストからテンポラルコモンセンスを抽出する
- Authors: Lekshmi R Nair, Arun Sankar, Koninika Pal,
- Abstract要約: 大規模言語モデル(LLM)は、テキストにしばしば明示的な記述があるため、時間的コモンセンスによる推論を必要とするテキストを生成するのに苦労する。
本稿では,LLMを利用して時間的コモンセンスを自動的にマイニングし,TComQAを構築するための時間的コモンセンス抽出パイプラインを提案する。
TComQAはクラウドソーシングによって検証され、時間的コモンセンスの抽出において80%以上の精度が達成されている。
- 参考スコア(独自算出の注目度): 0.9339914898177187
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Understanding events necessitates grasping their temporal context, which is often not explicitly stated in natural language. For example, it is not a trivial task for a machine to infer that a museum tour may last for a few hours, but can not take months. Recent studies indicate that even advanced large language models (LLMs) struggle in generating text that require reasoning with temporal commonsense due to its infrequent explicit mention in text. Therefore, automatically mining temporal commonsense for events enables the creation of robust language models. In this work, we investigate the capacity of LLMs to extract temporal commonsense from text and evaluate multiple experimental setups to assess their effectiveness. Here, we propose a temporal commonsense extraction pipeline that leverages LLMs to automatically mine temporal commonsense and use it to construct TComQA, a dataset derived from SAMSum and RealNews corpora. TComQA has been validated through crowdsourcing and achieves over 80\% precision in extracting temporal commonsense. The model trained with TComQA also outperforms an LLM fine-tuned on existing dataset of temporal question answering task.
- Abstract(参考訳): イベントを理解するには時間的文脈を理解する必要があるが、これは自然言語では明確に述べられていないことが多い。
例えば、ミュージアムツアーが数時間続くかもしれないが、何ヶ月もかかることはないと推測するのは、機械にとって簡単な作業ではない。
近年の研究では、高度な大規模言語モデル (LLM) でさえ、テキストにしばしば明示的な記述があるため、時間的コモンセンスによる推論を必要とするテキストを生成するのに苦労していることが示されている。
したがって、イベントの時間的コモンセンスを自動的にマイニングすることで、堅牢な言語モデルを作成することができる。
本研究では,テキストから時間的コモンセンスを抽出するLLMの能力について検討し,その有効性を評価するために複数の実験装置の評価を行った。
本稿では,LLMを利用して時間的コモンセンスを自動的にマイニングし,SAMSumとRealNewsコーパスから派生したデータセットであるTComQAを構築するための時間的コモンセンス抽出パイプラインを提案する。
TComQAはクラウドソーシングによって検証され、時間的コモンセンスの抽出において80%以上の精度が達成されている。
TComQAでトレーニングされたモデルは、時間的質問応答タスクの既存のデータセットに基づいて微調整されたLLMよりも優れている。
関連論文リスト
- A Semantic Parsing Framework for End-to-End Time Normalization [10.472379345636845]
時間正規化は、自然言語の時間表現を機械可読表現に変換するタスクである。
ISO-TimeMLスキーマの制限表現に基づく従来のシステム。
SCATEフレームワークを基盤としたコード生成タスクとして,時間正規化の新たな定式化を導入する。
論文 参考訳(メタデータ) (2025-07-08T23:30:11Z) - Chat-TS: Enhancing Multi-Modal Reasoning Over Time-Series and Natural Language Data [22.274663165215237]
時系列分析は、医療、金融、交通、エネルギーなど幅広い分野において重要である。
現在の時系列モデルは、時系列とテキストコンテンツの両方を含む推論を行う能力に制限がある。
Chat-TSは時系列トークンをLLMの語彙に統合し、両方のモダリティに対する推論能力を高める。
論文 参考訳(メタデータ) (2025-03-13T21:05:11Z) - Context is Key: A Benchmark for Forecasting with Essential Textual Information [87.3175915185287]
コンテキスト is Key" (CiK) は、数値データを多種多様なテキストコンテキストと組み合わせた予測ベンチマークである。
我々は,統計モデル,時系列基礎モデル,LLMに基づく予測モデルなど,さまざまなアプローチを評価する。
提案手法は,提案するベンチマークにおいて,他の試験手法よりも優れる簡易かつ効果的なLCMプロンプト法である。
論文 参考訳(メタデータ) (2024-10-24T17:56:08Z) - Analyzing Temporal Complex Events with Large Language Models? A Benchmark towards Temporal, Long Context Understanding [57.62275091656578]
時間的複合イベント(TCE)として、長い期間にわたって多くのニュース記事から構成される複合イベントについて述べる。
本稿では,Large Language Models (LLMs) を用いて,TCE内のイベントチェーンを系統的に抽出し,解析する手法を提案する。
論文 参考訳(メタデータ) (2024-06-04T16:42:17Z) - Timeline-based Sentence Decomposition with In-Context Learning for Temporal Fact Extraction [19.96263282146533]
本稿では,自然言語テキストから時間的事実を抽出する方法について述べる。
本稿では,大規模言語モデル(LLM)と文脈内学習を用いたタイムラインに基づく文分解手法を提案する。
実験の結果, TSDRE は HyperRED-Temporal データセットと ComplexTRED データセットの両方で最先端の結果が得られることがわかった。
論文 参考訳(メタデータ) (2024-05-16T17:48:21Z) - Large Language Models Can Learn Temporal Reasoning [11.599570446840547]
本稿では,言語に基づく時間的推論のための新しいフレームワークTG-LLMを提案する。
元の文脈を推論する代わりに、潜時表現、時間グラフ(TG)を採用する。
合成データセット(TGQA)は完全に制御可能であり、最小限の監督を必要とする。
論文 参考訳(メタデータ) (2024-01-12T19:00:26Z) - MuSR: Testing the Limits of Chain-of-thought with Multistep Soft Reasoning [63.80739044622555]
自然言語ナラティブで指定されたソフト推論タスクの言語モデルを評価するデータセットである MuSR を紹介する。
このデータセットには2つの重要な特徴がある。まず、ニューロシンボリック合成-自然生成アルゴリズムによって生成される。
第二に、私たちのデータセットインスタンスは、実世界の推論の領域に対応する無料のテキスト物語です。
論文 参考訳(メタデータ) (2023-10-24T17:59:20Z) - Temporal Common Sense Acquisition with Minimal Supervision [77.8308414884754]
この研究は、時間的常識の明示的で暗黙的な言及を活用する新しいシーケンスモデリング手法を提案する。
本手法は,時間的共通感覚の様々な次元の質予測を行う。
また、時間比較、親子関係、イベントコア参照、時間的QAなど、関連するタスクに対するイベントの表現も生成する。
論文 参考訳(メタデータ) (2020-05-08T22:20:16Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。