論文の概要: Temporal Referential Consistency: Do LLMs Favor Sequences Over Absolute Time References?
- arxiv url: http://arxiv.org/abs/2510.15513v1
- Date: Fri, 17 Oct 2025 10:33:48 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-20 20:17:34.57868
- Title: Temporal Referential Consistency: Do LLMs Favor Sequences Over Absolute Time References?
- Title(参考訳): 時間的参照一貫性:LLMは絶対時間参照よりもシーケンスを好むか?
- Authors: Ashutosh Bajpai, Tanmoy Chakraborty,
- Abstract要約: LLM(Large Language Model)は、知識ソースの代替品である。
LLMは現実的に正確でなければならないし、時間次元にわたって一貫性を示す必要がある。
この重要な要件にもかかわらず、LLMの時間的整合性を確保する努力は依然として不十分である。
- 参考スコア(独自算出の注目度): 21.90468150326666
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The increasing acceptance of large language models (LLMs) as an alternative to knowledge sources marks a significant paradigm shift across various domains, including time-sensitive fields such as law, healthcare, and finance. To fulfill this expanded role, LLMs must not only be factually accurate but also demonstrate consistency across temporal dimensions, necessitating robust temporal reasoning capabilities. Despite this critical requirement, efforts to ensure temporal consistency in LLMs remain scarce including noticeable absence of endeavors aimed at evaluating or augmenting LLMs across temporal references in time-sensitive inquiries. In this paper, we seek to address this gap by introducing a novel benchmark entitled temporal referential consistency, accompanied by a resource TEMP-ReCon designed to benchmark a wide range of both open-source and closed-source LLMs with various linguistic contexts characterized by differing resource richness (including English, French, and Romanian). The findings emphasis that LLMs do exhibit insufficient temporal referent consistency. To address this, we propose \newmodel, a reasoning path alignment-based model that aims to enhance the temporal referential consistency of LLMs. Our empirical experiments substantiate the efficacy of UnTRaP compared to several baseline models.
- Abstract(参考訳): 知識源の代替として大規模言語モデル (LLM) が受け入れられることは、法律、医療、金融といった時間に敏感な分野を含む様々な分野において、重要なパラダイムシフトを示す。
この拡張された役割を達成するためには、LLMは現実的に正確であるだけでなく、時間次元の整合性を証明し、堅牢な時間的推論能力を必要とする。
この重要な要件にもかかわらず、LLMの時間的整合性を確保する努力は、時間に敏感な問い合わせにおいて時間的基準を越えてLLMを評価し、拡張することを目的とした取り組みが顕著に欠如しているなど、依然として少ないままである。
本稿では,資源の多様さ(英語,フランス語,ルーマニア語を含む)を特徴とする様々な言語的文脈を持つオープンソースLLMとクローズドソースLLMの両方を幅広くベンチマークするリソースTEMP-ReConを伴って,時間的基準整合性という新たなベンチマークを導入することにより,このギャップに対処することを目的とする。
以上の結果から,LLMは時間的基準整合性に乏しいことが示唆された。
そこで我々は,LLMの時間的参照整合性を高めることを目的とした推論経路アライメントに基づくモデルであるニューモデルを提案する。
実験により,UnTRaPの有効性をいくつかのベースラインモデルと比較した。
関連論文リスト
- Semantic-Enhanced Time-Series Forecasting via Large Language Models [20.383296465541758]
時系列予測は、金融、エネルギー、気象学、IoTアプリケーションにおいて重要な役割を果たす。
近年,大規模言語モデル(LLM)の一般化機能を活用して時系列予測に適応し,有望な性能を実現している。
本稿では,時系列の固有周期性と異常特性を探索し,意味空間に埋め込むセマンティック拡張LDM(SE-LLM)を提案する。
論文 参考訳(メタデータ) (2025-08-11T07:19:21Z) - LongLLaDA: Unlocking Long Context Capabilities in Diffusion LLMs [63.580867975515474]
拡散LDMと従来の自己回帰LDMの長文性能を比較検討する。
LLaDAとNTKベースのRoPE外挿法を統合したLongLLaDAを提案する。
論文 参考訳(メタデータ) (2025-06-17T11:45:37Z) - LLM-PS: Empowering Large Language Models for Time Series Forecasting with Temporal Patterns and Semantics [56.99021951927683]
Time Series Forecasting (TSF) は、金融計画や健康モニタリングなど、多くの現実世界のドメインにおいて重要である。
既存のLarge Language Models (LLM) は通常、時系列データ固有の特性を無視するため、非最適に実行する。
時系列データから基本的なtextitPatterns と有意義な textitSemantics を学習し,TLF のための LLM-PS を提案する。
論文 参考訳(メタデータ) (2025-03-12T11:45:11Z) - Position: Empowering Time Series Reasoning with Multimodal LLMs [49.73647759532127]
マルチモーダル言語モデル (MLLM) は時系列解析においてより強力で柔軟な推論を可能にすると論じる。
我々は、MLLMにおける信頼、解釈可能性、堅牢な推論を優先する戦略を開発することで、この可能性を活用するよう研究者や実践者に呼びかける。
論文 参考訳(メタデータ) (2025-02-03T16:10:48Z) - Multilingual LLMs Inherently Reward In-Language Time-Sensitive Semantic Alignment for Low-Resource Languages [19.863010475923414]
資源豊富な言語と低リソースと見なされる言語とのラベル付きリソースの格差は、大規模言語モデル(LLM)にとって重要な障害である。
言語間インコンテキスト学習(X-ICL)における最近の進歩は、主に多言語事前学習型トランスフォーマーから得られる意味的に整合した例を通して、この問題を緩和する上で有望であることが示されている。
本研究では,低リソース言語における時間的推論能力の向上により,このギャップを埋めることを目的とする。
論文 参考訳(メタデータ) (2024-12-11T04:16:39Z) - Temporally Consistent Factuality Probing for Large Language Models [16.177991267568125]
本稿では, 時間的に一貫性のある課題であるTeCFaPを紹介する。
既存のメトリクスの定義を拡張して、時間次元にわたって一貫した事実性を表現します。
次に,マルチタスク・インストラクション・チューニング(MT-IT)と一貫した時間依存性強化学習(CTSRL)を組み合わせた新しいソリューションCoTSeLFを提案する。
論文 参考訳(メタデータ) (2024-09-21T08:41:08Z) - Living in the Moment: Can Large Language Models Grasp Co-Temporal Reasoning? [70.19200858203388]
時間的推論は、世界を理解するための大きな言語モデルの基本である。
CoTempQAは4つの時間的シナリオを含むベンチマークである。
実験の結果,LLMの性能と人間レベルの推論との間に大きなギャップがあることが判明した。
論文 参考訳(メタデータ) (2024-06-13T12:56:21Z) - Improve Temporal Awareness of LLMs for Sequential Recommendation [61.723928508200196]
大規模言語モデル(LLM)は、幅広い汎用タスクを解く際、印象的なゼロショット能力を示した。
LLMは時間的情報の認識と利用に不足しており、シーケンシャルなデータの理解を必要とするタスクではパフォーマンスが悪い。
LLMに基づくシーケンシャルレコメンデーションのために、歴史的相互作用の中で時間情報を利用する3つのプロンプト戦略を提案する。
論文 参考訳(メタデータ) (2024-05-05T00:21:26Z) - Assessing the Reliability of Large Language Model Knowledge [78.38870272050106]
大規模言語モデル(LLM)は、知識探索タスクにおける高い性能のため、知識ベースとして扱われてきた。
LLMが実際に正しい答えを連続的に生成する能力をどのように評価するか。
LLMの信頼性を直接測定するための新しい指標であるMOdel kNowledge relIabiliTy score (MONITOR)を提案する。
論文 参考訳(メタデータ) (2023-10-15T12:40:30Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。