論文の概要: Discrete Minds in a Continuous World: Do Language Models Know Time Passes?
- arxiv url: http://arxiv.org/abs/2506.05790v1
- Date: Fri, 06 Jun 2025 06:37:01 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-06-09 17:28:43.351073
- Title: Discrete Minds in a Continuous World: Do Language Models Know Time Passes?
- Title(参考訳): 継続的世界での離散的マインド: 言語モデルは時間経過を知っているか?
- Authors: Minghan Wang, Ye Bai, Thuy-Trang Vu, Ehsan Shareghi, Gholamreza Haffari,
- Abstract要約: 大規模言語モデル(LLM)は、イベントの順序付けや時間推定といった時間的推論のタスクで優れています。
LLMが時間の経過を知覚し、それに応じて意思決定に適応するかどうかを検討する。
- 参考スコア(独自算出の注目度): 44.46759661130471
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: While Large Language Models (LLMs) excel at temporal reasoning tasks like event ordering and duration estimation, their ability to perceive the actual passage of time remains unexplored. We investigate whether LLMs perceive the passage of time and adapt their decision-making accordingly through three complementary experiments. First, we introduce the Token-Time Hypothesis, positing that LLMs can map discrete token counts to continuous wall-clock time, and validate this through a dialogue duration judgment task. Second, we demonstrate that LLMs could use this awareness to adapt their response length while maintaining accuracy when users express urgency in question answering tasks. Finally, we develop BombRush, an interactive navigation challenge that examines how LLMs modify behavior under progressive time pressure in dynamic environments. Our findings indicate that LLMs possess certain awareness of time passage, enabling them to bridge discrete linguistic tokens and continuous physical time, though this capability varies with model size and reasoning abilities. This work establishes a theoretical foundation for enhancing temporal awareness in LLMs for time-sensitive applications.
- Abstract(参考訳): 大規模言語モデル(LLM)は、事象の順序付けや時間推定といった時間的推論のタスクに優れるが、実際の時間の経過を知覚する能力は未解明のままである。
LLMが時間の経過を知覚し,3つの相補的な実験を通じて意思決定に適応するかどうかを検討する。
まず,LLMが離散トークン数を連続壁面時間にマッピングできることを示すToken-Time仮説を導入し,対話期間判定タスクを通じてこれを検証した。
第2に,この認識を用いて,質問応答タスクの緊急度をユーザが表現した場合の精度を維持しながら,応答長を調整できることを実証する。
最後に,LLMが動的環境下での進行時間圧力下での挙動をどのように変化させるかを調べる対話型ナビゲーション課題であるBombRushを開発した。
本研究は, LLMが時間経過をある程度把握し, 個別の言語トークンと連続的な物理時間とをブリッジできることを示唆する。
本研究は,LLMにおける時間的意識を高めるための理論的基盤を確立する。
関連論文リスト
- TransientTables: Evaluating LLMs' Reasoning on Temporally Evolving Semi-structured Tables [47.85408648193376]
大規模言語モデル(LLM)は通常、静的データセットでトレーニングされ、効果的な時間的推論を行う能力を制限する。
本稿では,14,000以上のテーブルから3,971の質問を抽出し,複数の期間にわたって1,238のエンティティを対象とするTransIENTTABLESデータセットを提案する。
論文 参考訳(メタデータ) (2025-04-02T16:34:43Z) - A Study into Investigating Temporal Robustness of LLMs [19.067901534284395]
大きな言語モデル(LLM)は、驚くほど多くの実世界の知識をカプセル化します。
我々は, 時間情報処理能力に基づいて, LLMが質問応答の頑健さを正確に測定することを目的としている。
これらの8つのテストの選択が、モデルの時間的堅牢性を判断するために、どのように自動的に使用されるかを示す。
論文 参考訳(メタデータ) (2025-03-21T11:56:17Z) - Living in the Moment: Can Large Language Models Grasp Co-Temporal Reasoning? [70.19200858203388]
時間的推論は、世界を理解するための大きな言語モデルの基本である。
CoTempQAは4つの時間的シナリオを含むベンチマークである。
実験の結果,LLMの性能と人間レベルの推論との間に大きなギャップがあることが判明した。
論文 参考訳(メタデータ) (2024-06-13T12:56:21Z) - The Strong Pull of Prior Knowledge in Large Language Models and Its Impact on Emotion Recognition [74.04775677110179]
In-context Learning (ICL) は、Large Language Models (LLM) を用いた自然言語処理のための強力なパラダイムとして登場した。
LLMには、感情認識において強いが矛盾する先行性があり、その予測に影響を及ぼすことが示される。
以上の結果から,ICLをより大きなLCMで事前学習領域外の情動中心タスクに使用する場合,注意が必要であることが示唆された。
論文 参考訳(メタデータ) (2024-03-25T19:07:32Z) - Temporal Blind Spots in Large Language Models [20.631107338678234]
大規模言語モデル(LLM)は、様々な自然言語処理タスクを実行する非並列性のため、最近注目されている。
本研究では,時間的理解を必要とするタスクに対して,汎用LLMの基本的な限界について検討する。
論文 参考訳(メタデータ) (2024-01-22T16:20:14Z) - Towards Robust Temporal Reasoning of Large Language Models via a Multi-Hop QA Dataset and Pseudo-Instruction Tuning [73.51314109184197]
大規模言語モデル(LLM)には時間的知識の概念を理解することが不可欠である。
本稿では,複数質問応答と複数ホップの時間的推論に焦点をあてた複雑な時間的質問応答データセットであるComplex-TRを提案する。
論文 参考訳(メタデータ) (2023-11-16T11:49:29Z) - Temporal Knowledge Question Answering via Abstract Reasoning Induction [32.08799860090592]
本研究では,Large Language Models(LLMs)における時間的知識推論の高度化という課題に対処する。
本稿では,時間的推論を知識非依存と知識に基づく2つのフェーズに分割する抽象推論誘導(ARI)フレームワークを提案する。
提案手法は,2つの時間的QAデータセットに対して29.7%と9.27%の相対的な向上を達成している。
論文 参考訳(メタデータ) (2023-11-15T17:46:39Z) - MenatQA: A New Dataset for Testing the Temporal Comprehension and
Reasoning Abilities of Large Language Models [17.322480769274062]
大規模言語モデル(LLM)は、多くの自然言語処理(NLP)タスクにおいてほぼ飽和した性能を示している。
本稿では,LLMの時間的理解と推論能力を評価するために,合計2,853個のサンプルを用いた多感性因子時間QA(MenatQA)を構築した。
論文 参考訳(メタデータ) (2023-10-08T13:19:52Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。